FS265 Mansplaining as a Service

Star Wars — x-hain - Nicolas Semak — Feedback — Elixir— ChatGPT und die AI-Revolution — LED-Steuerung

Und weiter geht's mit der wilden Fahrt. Heute widmen wir einen dicken Teil der Sendung der schon lange ausstehenden Diskussion rund um die sich schnell breitmachenden "intelligenten" Systeme und wir machen einen Reality Check und klappern dabei auch die popkulturellen AI-Vorlagen der Science Fiction mit ab. Dazu noch mal ganz viel Feedback zu Euren Anmerkungen rund um Social Media und Programmierung und eine ausführliche Einführung in die Steuerung von LED-Modulen. Viel Spaß.

Dauer: 4:03:19

avatar
Tim Pritlove
avatar
roddi
avatar
Ralf Stockmann
avatar
Björn Reimer

Für diese Episode von Freak Show liegt auch ein vollständiges Transkript mit Zeitmarken und Sprecheridentifikation vor.

Bitte beachten: das Transkript wurde automatisiert erzeugt und wurde nicht nachträglich gegengelesen oder korrigiert. Dieser Prozess ist nicht sonderlich genau und das Ergebnis enthält daher mit Sicherheit eine Reihe von Fehlern. Im Zweifel gilt immer das in der Sendung aufgezeichnete gesprochene Wort. Formate: HTML, WEBVTT.



Transkript
Tim Pritlove 0:04:10
Hallo und herzlich willkommen, hier ist die Freakshow Nummer 265.Die Zahlen schießen nach oben, durch die Decke geradezu. Hallo,wir sind's und wir schreiben den 4. Mai 2023.May the 4th be with you. Den musste ich jetzt bringen, weil wenn ich den nichtgebracht, Dann würde es die ganze Zeit im Chat auftauchen und alle würden michfragen, warum ich das nicht erwähnt hätte und so weiter und deswegen mache ich das jetzt.Genau, hallo ich bin's Tim, hier ist die Freak Show und da sind wir wieder.Nach nur drei Wochen, möchte ich mal kurz feststellen, in ganz brauchbarer Besetzung, wie ich finde.Nämlich mit Roddy. Hallo Roddy. Aloha. Aloha.
roddi 0:05:00
Schön, dass du mich als brauchbare Besetzung bezeichnest.
Tim Pritlove 0:05:03
Ist doch okay, oder?
roddi 0:05:05
Ich fühle mich gebauchpinselt.
Tim Pritlove 0:05:06
Das ist das, was der Brite not bad nennt.
roddi 0:05:09
Not too shabby.
Tim Pritlove 0:05:10
Not too shabby, genau. Haben wir so ein bisschen Echo hier gerade irgendwo drin? Nee.Ralf ist auch wieder da. Hallo Ralf.
Ralf Stockmann 0:05:19
Einen wunderschönen guten Abend.
Tim Pritlove 0:05:21
Guck mal, wie der mit dem Mikrofon umgehen kann. Da ist so richtig schön mitso einer Elmar Gunsch Stimme.Berichtet er uns.
Ralf Stockmann 0:05:30
Trotz jahrelanger Abstinenz. Kennst du noch Elmar Gunsch? Wenn ich die Stimmehöre wahrscheinlich, ja jetzt vom Namen her.
Tim Pritlove 0:05:37
Du hast keine Assoziation mit Elmar Gunsch?
roddi 0:05:40
Bayerische Rundfunk oder?
Tim Pritlove 0:05:41
Das ist jetzt eine gute Frage, die ich ehrlich gesagt nur mit Wikipedia beantworten kann.Elmar Gunsch war auf jeden Fall im Fernsehen, hier heißt es österreichischerModerator tatsächlich sogar auch und der hatte so eine ganz bassige Stimme undder hat so eine Sendung gemacht, die hieß Wiedersehen macht Freude.Wo er dann über so alte Dinge berichtet hat und das Ganze halt mit so einerElmar Gunsch Stimme und zwar, ja.Irgendjemand hat mal so einen schönen Witz gemacht mit Elmar Gunsch.Irgendwie eine Atomwiederaufbereitungsanlage mit seiner Stimme als wieder,wie hättest du es genannt, Entsorgungspark bezeichnet, sind alle sehr beruhigt.So und dann last but not least haben wir noch Björn mitgebracht.
Björn Reimer 0:06:26
Hallo Björn.
Tim Pritlove 0:06:27
Björn Reimer, erstes mal in der Freak Show, herzlich willkommen.Dankeschön. Genau, mit dir.Da freue ich mich sehr, dass es geklappt hat und das hat diverse Gründe,warum du hier ganz richtig bist, wie ich finde. Jetzt muss ich erstmal kurzhier wieder meine Lesebrille, mein Gott, das ist auch echt ein Problem mit diesenganzen Behinderungen, erstmal klarkommen hier.
Ralf Stockmann 0:06:53
Zumindest sitzen wir auf Stühlen.
Tim Pritlove 0:06:55
Bist du denn Star Wars Fan Björn?
Björn Reimer 0:06:57
Ja.
Tim Pritlove 0:07:02
Das klingt total überzeugend.
Björn Reimer 0:07:06
Also früher war ich großer Star Wars Fan. Das was jetzt alles am Neuen rausgekommenist, hat mich jetzt nicht mehr so begeistert oder in wechselnden Maßen.Deswegen habe ich jetzt kurz nachgedacht.Aber früher schon. Also das hat mich damals mitgenommen.
Ralf Stockmann 0:07:19
Wo setzt du denn neu an? Sind die Prequels schon neu oder erst die Sequels?
Björn Reimer 0:07:27
Also die Sequels haben mich ernüchtert. Das war nicht mehr so gut als es dann wieder kam.
Tim Pritlove 0:07:33
Warte mal, was sind denn jetzt die Sequels und was sind die Prequels,da komme ich jetzt durcheinander.
Ralf Stockmann 0:07:36
Also die Prequels ist Episode 1, 2, 3, also Phantom Menace und Clone,Attack of the, doch Attack of the Clones, genau, Return of the Sith und danndie Sequels ist dann halt mit Rey und Finn und genau 7, 8, 9.
Björn Reimer 0:07:52
Genau, dann so rum, genau. Also die, ja, da fand ich den ersten super und dannspäter hat das auch wieder ein bisschen abgebaut.Das wirkte alles sehr zu geschmeidig, fand ich. Also es war nicht mehr sehrunterhaltsam und auch nicht sehr viel Neues, wie ich fande.
Tim Pritlove 0:08:13
Da hat jeder so seine Meinung.
Ralf Stockmann 0:08:15
Die ganzen Serien jetzt so, Mandalorian und Andor und.
Björn Reimer 0:08:21
Da hab ich nicht mehr so viel reingeguckt, da war ich dann auch nicht mehr sobegeistert von. Andor hab ich angefangen, hat mich aber auch nicht mitgerissen.
Ralf Stockmann 0:08:29
Da muss man auch mindestens bis Folge 3 durchhalten, damit der erste Pay-Offkommt, die ersten zwei Folgen sind wirklich schwierig.
Tim Pritlove 0:08:37
Andor find ich einen ganz großen Wurf.
Ralf Stockmann 0:08:40
Wie viel Zeit haben wir?
Tim Pritlove 0:08:44
Du weißt ja, hier ist das alles sehr flexibel, aber ganz ehrlich,ich bin ja so alt, ich hab ja noch den Star Wars Film im Kino gesehen als er raus kam.
Ralf Stockmann 0:08:58
Den ersten.
Tim Pritlove 0:09:01
Den vierten ersten wie auch immer, New Hope.
Ralf Stockmann 0:09:04
Das kann ja fast nicht sein. Wieso? Weil so viel älter als ich bist du dochauch nicht. Ich bin ja zehn. Ich hätte den dritten im Kino gucken können.
Tim Pritlove 0:09:12
Ich war zehn oder elf.
roddi 0:09:16
Ich hatte nur das Panini Heft.
Tim Pritlove 0:09:18
Wann kam der in Deutschland raus? 78 oder 77 schon noch?
Ralf Stockmann 0:09:22
Ich meine 78 kam der.
Tim Pritlove 0:09:23
Ja, da war ich 11. Da kann man schon mal ins Kino gehen.
Ralf Stockmann 0:09:27
Fair enough.
Björn Reimer 0:09:27
Das ist alles weit vor meiner Zeit.
Tim Pritlove 0:09:30
Ja ich weiß, ich bin ja auch alt. Aber da weiß ich noch genau wie es mir vorherging und wie es mir danach ging.Und ich glaube alle die das gemacht haben damals, also es ist sehr schwer dassozusagen glaubhaft nachzuerzählen,aber es war wirklich so man ging halt rein und vorher war halt die Welt so unddann gingst du halt rein, dann hast du diesen Film geguckt, dann kamst du wiederraus und die Welt war neu.Alles war anders. Also mit Star Wars hat irgendwie sozusagen die offizielleZeitrechnung neu begonnen,es war irgendwie das Jahr Null gefühlt so, du hast sofort gemerkt so,okay, nichts ist mehr so wie es war, alles ist jetzt neu definiert,irgendwie Star Wars hat uns alle komplett den Kopf verdreht und dieser ganzeCraze war absolut nachvollziehbar, weil es war einfach diese Zauberwelt,diese Märchenwelt, die sie da geschaffen haben, dieser Spaß und das war alles so neu.Aber ich weiß noch, was hat sich der Film abgemüht mit Science Fiction?Also da gab es wirklich ganz schlechte Phasen, es gab natürlich auch noch ein paar Hochphasen,da werden wir auch noch drauf kommen und so weiter, aber ganz zweifelsohne hatStar Wars halt so ein komplett neues Kapitel eingeläutert,das kann lustig sein und das kann irgendwie Abenteuer sein und alles und dannnoch diese Effekte, die für die damaligen Verhältnisse einfach unfassbar waren,Es war einfach eine Illusion, die da abgezaubert wurde, wie auch immer.Auf jeden Fall, Star Wars war dann bam, bam, bam und nichts war mehr so wie vorher.
Ralf Stockmann 0:11:04
Das Design.Das Raumschiff Design alleine. Die allererste Szene, wenn sich der Sternzerstörerbrumm brumm, wer nach den zehn Sekunden noch weiß, ob er Männlein oder Weiblein ist.Sowas war völlig neu einfach für Kino.
Tim Pritlove 0:11:21
Ja, auch der Sound. Also das war auch die Zeit, wo Kinos überhaupt angefangenhaben ordentlichen Sound zu haben.Vorher hat's da so kleine plerrende Boxen und dann kam halt so mit diesen Filmenkam halt so dieses Krachbumm irgendwie auf einmal rein und dass man das dannso im Bauch spürte und so weiter.Also man wurde da an allen Sensoriken gezupft und ich weiß nicht ob der Sprungdanach jemals wieder so groß war, so im Gesamtgefühl.
Ralf Stockmann 0:11:47
Das absurde ist, ich bin zu Star Wars gekommen, weil man es mir erzählt hat.Ich war damals irgendwo auf der Schule und wir hatten eine Busfahrt von 20 Minutenund mein bester Freund, der hatte die alle schon auf Video geguckt irgendwie, alle drei Teile.Man hat ja mir im Laufe einer Woche während der ganzen Busfahrten die kompletteGeschichte erzählt von Teil 1 über Teil 2 über Teil 3. Das heißt also ich kennStar Wars als mündliche Überlieferung, so hat's angefangen.Und dann irgendwie erst ein paar Monate, es hat wirklich lange gedauert,ein paar Monate später hat er dann wieder irgendwie den Videorekorder organisiertund dann gab's dann irgendwie eine Watchparty,wo wir dann relativ schnell auf so einem abgeranzten kleinen Mini Farbfernsehermit schlechten Tapes irgendwie kopiert haben,das war noch so eine Raubkopie, das war noch niemals irgendwie aus der Videothek,weil ich glaub die gab's gar nicht in der Videothek zu dem Zeitpunkt,die konnte man also auch am Anfang nur irgendwie aus Sonderbankquellen irgendwie beziehen.Das war so das denkbar schlechteste Star Wars Intronisation,die man sich auch nicht vorstellen kann. Erst die ganze Story gespoilert unddann die schlechte Version auf dem Scheiß Fernseher geguckt und es war trotzdem fantastisch.Und wenn ein Film trotzdem so funktioniert, obwohl er so massiv schlechte Startchancenhat, dann muss da was dran sein.
roddi 0:13:00
Ich erinnere mich nur, dass ich den, irgendwann haben wir mal die ersten dreiTeile, also Episode 4 bis 6, von analoger Laserdisc angeguckt.Und zwar waren das drei analoge Laserdiscs pro Film, aber mit Vor- und Rückseite.Also irgendwie gefühlt alle Viertelstunde musste diese Disc umgedreht werdenoder eine neue eingelegt werden und dann natürlich mit dem weichen Mikrofasertuchnochmal vorsichtig abgewedelt.Ja, das war nicht ganz so beeindruckend irgendwie dann, aber es war trotzdem schön.
Ralf Stockmann 0:13:37
Ja und Episode 1 dann, also Teil, der erste dann der Prequels,den habe ich in der Tat Raubmord kopiert, bei uns damals bei den Medienwissenschaftlerngesehen und den haben wir über 48 Stunden runtergeladen und ich glaube weiteTeile davon habe ich dann da auch gewilltig campiert in meinem Arbeitsraum,das war, ich weiß gar nicht was das für ein Protokoll war, da gab es ja nochkein Torrent zu dem Zeitpunkt und da musste es also irgendwie gefühlt alle 15Minuten dagegen treten damit irgendwie der Download nicht wieder zusammenbrach.Und das waren also natürlich, in Denaver haben wir auch häppchenweise geguckt,also so alle so in Chunks von zehn Minuten konntest du quasi dann schon wiederweitergucken, das setzte sich ja so fort diese gar nicht so gute Experience,dass ich also Episode 1 würde ich in zehn Minuten Fragmenten über 48 Stundengeguckt habe, aber auch das war nicht so schlecht.Also das Podrace, darauf lasse ich ja nach wie vor nichts kommen,das sind perfekte 30 Filmminuten die man da drin hat.
roddi 0:14:30
Aber Jar Jar Binks.
Ralf Stockmann 0:14:31
Ja egal, der ist da ja, kommt zu sehen.
Tim Pritlove 0:14:33
Portraits gebe ich dir. Also ich glaube sonst hätte man den Film auch einfachkomplett gleich aus den Kinos nehmen können.Das war noch so ein bisschen der Ansatz. Aber sorry, die ganzen Charaktere undso, das wäre fast komplett schief gegangen.Und Jar Jar Binks, siehst du irgendeine Legitimation für Jar Jar Binks?
roddi 0:14:53
Ich glaube sie wollten unbedingt einen Jamaikanisch sprechenden Synchronsprecherin dem Film haben, weil sein Jamaikanisch ist wirklich gut.
Tim Pritlove 0:15:02
Wie der hat auch noch.
Ralf Stockmann 0:15:04
Ja ja die haben eine ziemlich deftige Rassismus Debatte ja noch.
roddi 0:15:07
Ja ja der hat richtig krasses Jamaikanisch gesprochen.
Ralf Stockmann 0:15:10
Auch weil die von der Handelsföderation dann ja auch so asiatischen Select drin haben.Das war also schon alles nicht so ganz fein. Hat sich Lukas,glaube ich, sogar auch einigermaßen offiziell für entschuldigt,im Nachhinein, irgendwie etliche Jahre später.
Tim Pritlove 0:15:26
Ja, zurecht.Weil er hat, ich finde er hat nicht schnell genug loslassen können und auchso seine Redos von 4,5,6 war ja auch totale Katastrophe.Hier mit irgendwie Handshot first, also dass er wirklich auch noch in den Ablaufeingreift und dann auch noch seine,ich meine ich rechne es ihm ja hoch an, dass er immer nach Perfektion strebt so,aber er ist dann halt wirklich in dieses Uncanny Valley der Special Effectsreingefallen und hat irgendwie zu einem Zeitpunkt wo er dachte jetzt ist schonalles richtig geil und wenn ich das jetzt mache dann werden die Filme richtig toll,ist aber genau, hat so richtig in den Scheißetopf von, ne ist noch nicht sogeil wirklich so reingegriffen und dadurch halt die Filme verunstaltet.Wir hatten ja hier schon mal eine ausführliche Diskussion, du wirst sie sicherlichverfolgt haben, wie ich dich kenneRalf, zu dem Thema, mit irgendwelcher Reihenfolge muss man das hören.Die Machete Order natürlich. Genau die Machete Order auf der einen Seite,aber auf der anderen Seite auch diese Special,das weiß ich nicht mehr ganz genau wie die Ausgaben hießen, ich hab sie hier groß gepriesen,jetzt weiß ich es grad nicht mehr, aber es gibt ja verschiedene,es gibt ja sozusagen eine Version aller Filme,die zusammengesetzt sind aus sozusagen allem Material was es gibt,wo sozusagen die original, der original Szenenverlauf ist mit den besser gemachtenVerbesserungen reingenommen,alles irgendwie in HD und so weiter und da kann man sich High Star Wars so richtiggeil angucken so, das ist halt einfach qualitativ das beste was man kriegenkann ohne dass es die Story verholt ist.Und vor allem ist halt ganz viel Jar Jar Binks rausgeschnitten worden und ehrlich gesagt,Jar Jar Binks kann ja noch ertragen, aber wo ich wirklich die Galle kriege,was ich das Schlimmste finde überhaupt in diesem ganzen 1-2-3-Epos,ganz schlimm in eins und auch ganz schlimm in zwei, Diese unsäglich langweiligenDiskussionen zwischen Obi-Wan und, äh, hier, äh, junger Skywalker, wie heißt er?
Ralf Stockmann 0:17:29
Anakin. Anakin.
Tim Pritlove 0:17:31
Und überhaupt das ganze wie so deutsches Theater, also wo sie die ganze Zeit da so sitzen,immer linkscard, rechtscard, linkscard, sie sitzen die ganze Zeit auf Sofasund reden miteinander, da kann ich auch in Berlin ins Theater gehen,wenn ich mir das anschauen will, also das ging überhaupt nicht.
Ralf Stockmann 0:17:46
Du hattest ja mal hier diese Crew da aus Amiland, die diese Rezensionen machen,wie heißen die noch? die auch so ein bisschen völlig neben der Spur sind,die da wirklich sehr gut 40 Minuten lang oder sogar über eine Stunde durchanalysieren,was alles schief gelaufen ist bei den Prequels. Du erinnerst dich was ich meine?
Tim Pritlove 0:18:06
Du hast es selber gepriesen, völlig zu Recht. Ja, sorry ist zu lange her alles.
Ralf Stockmann 0:18:12
Weil da haben die genau das sehr gut mal wirklich so standbildmäßig so,warum sind diese Einstellungen hier so langweilig, warum passiert hier nichtmehr Dynamik, warum Show, Down, Tell, also einfach so die Grundregeln von gutenoriginellen Filmen machen werden da einfach halt ignoriert.
Tim Pritlove 0:18:25
Ich weiß nicht mehr wie es heißt aber jetzt weiß ich mal was du meinst. Genau. Ja,naja, so aber dann und womit ich ja auch nie so richtig klar kam,war diese ganze Zusatzwelt, die dann so zwischen diesen Filmen entsponnen wurdein Form von diesen Animationsfilmen.Dafür war ich zu alt. Das hat mir nicht gefallen und das hat irgendwie ja irgendwieein junges Publikum gefunden.
Ralf Stockmann 0:18:50
Der hat also Clone Wars nicht gefallen, notier.
Tim Pritlove 0:18:54
Ja ich hab das erst vor kurzem überhaupt das erste mal versucht nachzuschauen, aber...Ich bonde nicht mit dem Animationsgenre, also das ist mir dann zu,also dass das dieselbe Welt sein soll, das geht bei mir nicht zusammen,das ist für mich wie das Fernsehen in Star Wars damals.
Ralf Stockmann 0:19:14
Also in Clown Wars muss man, kann man glaube ich so ein paar einfache Wahrheitenmal versuchen zusammen zu tragen, die haben ein bisschen einen kolprigen Startauch, so die erste Season ist also sicherlich nicht so das Glanzstück.Es sind aber so ein paar Story-Arcs drin, die so mit zum Besten gehören,was du so lore-technisch an Star Wars kriegen kannst. Also weil da ja eben wirklichviel, wie wurde das Ganze vorbereitet und wie ist es dann hinterher mit DarthMaul weitergegangen, den holen sie ja wieder zurück.Ist ein schöner Arc, wie verhält sich Sidious dann dazu? Also wenn man grundsätzlichso in dieses ganze Star Wars Lore-Thema eintauchen möchte, so wie hängt waswie zusammen, ist Clone Wars der absolute Honigtopf.Du findest also keine andere Quelle, wo du das so schön zusammenfassst.
Tim Pritlove 0:19:58
In Chat wird gerade gesagt, es gibt Clone Wars und The Clone Wars.
Ralf Stockmann 0:20:02
Also ich meine die große lange Folge, also nicht die kurze erste.Das ist glaube ich Clone Wars und das was ich meine ist glaube ich The Clone Wars.Also das wo es irgendwie fünf, sechs Seasons von gibt. Das das taugt richtig,die haben ja noch eine nachgeschoben vor einem oder zwei Jahren,haben sie quasi weil sie das Ende quasi der letzten offiziellen Season war soein bisschen halbgar und man wusste gar nicht was passiert mit Ahsoka jetzteigentlich irgendwie weiter,das ist zum Beispiel würde ich sagen bester weiblicher Charakter im Star WarsUniversum, Ahsoka, der jetzt auch ihre eigene Show kriegt, noch knapp vor Rey,ja total super, bester weiblicher Charakter, angucken.
Tim Pritlove 0:20:37
Okay gut, aber ich sag ja nur ich konnte mit diesem Animationsgenre nicht bonden.
Ralf Stockmann 0:20:42
Also das war, kann ich nachvollziehen, auch der Zeichenstil muss einem gefallen.
Tim Pritlove 0:20:46
Das kann toll sein und die Story mag toll sein, aber ich konnte da nicht,keine Verbindung herstellen.Deswegen ist mir dieses ganze Star Wars Universum überhaupt eigentlich erstnäher gebracht worden, seitdem sie eben jetzt diese Zwischenfilme machen.So und da fand ich den, oh Gott ich kann mir den scheiß Namen nicht merken,wie hieß der mit dem Angriff da, den fand ich super, den fand ich irgendwietoll, der hat mich das erste mal so ein bisschen abgeholt für dieses,es gibt noch Geschichten dazwischen, okay so.Dann fand ich diesen Solo, fand ich okay.Und Obi-Wan als Serie war genauso langweilig wie die Obi-Wan Rolle in den Filmen.Sorry, ich mag ja diesen Schauspieler. Ich liebe ihn.Aber diese Rolle haben sie eben komplett zerpflückt oder die Regie,ich weiß nicht, es ist so tranig, so langweilig, so zum Einschlafen,zum Gähnen, grauenhaft, furchtbar.
Ralf Stockmann 0:21:52
Obi-Wan hat einfach ein paar richtig fiese inszenatorische Macken,wenn also die kleine Leia irgendwie durch den Wald vor den super harten Kopfgeldjägernabhaut und die ständig über irgendwelche Wurzeln stolpern nur damit sie sienoch nicht gefangen kriegen,Also wenn du halt irgendwie so zwei badass Typen hast und die schaffen es zehnMinuten lang nicht irgendwie eine Sechsjährige oder Zehnjährige zu fangen,das ist auch so wirklich plump inszeniert, also darüber kann man sich schon ein bisschen helfen.
Tim Pritlove 0:22:20
Also Ewan McGregor finde ich ja einen geilen Schauspieler und ich bin sehr froh,ich hab den ja irgendwie schon in seinem allerersten Film ist er mir ja schonaufgefallen, damals als er noch in Schottland, Shallow Grave war der erste Filmmit dem er bekannt geworden ist, ganz lustiger Superfilm.
Ralf Stockmann 0:22:37
Bin ich Trainspotting eingestiegen, ganz klassisch.
Tim Pritlove 0:22:39
Trainspotting kam danach, also Shallow Grave war sozusagen wo er entdeckt wurdeund danach kam irgendwie Trainspotting und aus diesem ganzen schottischen Kollektivsind ja so einige Stars hervorgegangen,jetzt wollen wir nicht so weit wegkommen von Star Wars, auf jeden Fall finde ich Ewan McGregor,also es tut mir wirklich leid Ewan McGregor, ich mag dich sehr gerne,aber sie haben dir eine kaputte Rolle gegeben, die ist einfach von der Regiezerstört worden und finde ich auch sehr wenig rausgeholt.Und dann, deswegen fand ich dann Andor wieder so geil, weil Andor,wenn du sagst so die ersten drei Folgen geguckt und irgendwie hä,so ja, das ist wieder so etwas was sich ganz langsam aufbaut so und dann sehrschön den Anfang von allem zeichnet.Also das ist ja das, was da drin steckt. Da steckt der Anfang dieser gesamtenRebellion drin. Warum eigentlich? Wie? Wer? Und so.Und das finde ich ganz toll. Und Mandalorian...Ist ein gutes Beispiel dafür, dass man einen kriegen kann,also erstmal Mandalorian, geilster Soundtrack der nicht von John Williams ist,also dieser Schwede, Hammer Thema super umgesetzt trägt sich jetzt schon überdrei Serien wird immer evolviert ganz da haben sie wirklich einen super supersuper Komponisten gefunden,Schwede oder Finne oder sowas, ganz komischer Name, Langasör, irgendwie sowas.Das ist geil und ich meine klar mit Baby Yoda haben sie es natürlich alle gekriegt so.Das war einfach der Cuteness Faktor hoch 10, aber auch da ist es halt so,Ja ok, ihr müsst also jetzt eine Folge in dieser Serie füllen und jetzt gibtes ja so ein Abenteuer, was soll der Name?Die Mission of the Week. Genau, die Mission of the Week,wo nichts übrig bleibt für den Rest der Geschichte und das finde ich dann wieder so schade,dass man da irgendwie so diese Zeit ein bisschen, das ist zwar irgendwie ganzgute Unterhaltung und so,aber am Ende, ok, wir haben jetzt 30 Minuten eine Story gesehen,die in keinem der Previously on Mandalorian auch nur eine Sekunde reingeschnittenwird, so wichtig war das jetzt.Und das finde ich dann wiederum.
Ralf Stockmann 0:24:58
Ja, also ich hab mit Andor echt so meine Schwierigkeiten.Irgendjemand hat das in Masterdon mal auf die schöne prägnante Formel gebracht,ich weiß ja nicht mehr wer jetzt spontan.Die haben die Stars aus Star Wars rausgenommen.Also sprich all das was irgendwie was mit eben Märchen und Eskapismus und tollesinteressantes Design und sowas, das ist halt alles raus operiert und du hast nur noch den Krieg.Ja also was macht dieses oppressive Imperiumsregime mit den ganzen Menschen?
Tim Pritlove 0:25:30
In was ist nur noch der Krieg?
Ralf Stockmann 0:25:31
In Star Wars. Sie haben die Stars rausgenommen aus Star Wars. In Andor. So.Also Star Wars, das war immer die Kombination, das ist eigentlich ein Actionfilm,aber du hast eben dieses ja, Sky is the limit und es ist Eskapismus und tollesDesign und man hat auch Spaß und das ist alles raus und du bist nur noch imKrieg, nur noch die Wars sind übrig.So und was macht der Krieg mit den ganzen Menschen, wie funktioniert diesesUnrechtsregime, wie funktioniert jetzt das Imperium von innen.Die Szenen finde ich natürlich fantastisch, wenn da also der Secret Servicevom Imperium irgendwie gezeigt wird und was die wiederum alle für Binnenquerellenhaben. Aber Spaß ist das halt alles nicht.Es sind halt keine Stars mehr drin.Also nicht Stars im Sinne von die Sterne da oben am Himmel halt und das findeich hängt dem schon so ein bisschen nach.Plus dieser Erzähl-Rhythmus, dass du immer diese Dreierblöcke hast.Du brauchst zwei Folgen Exposition bis du dann wieder irgendwie einen Höhepunktbekommst. Die sind dann ziemlich gut, die dritte Folge ist gut,die sechste ist gut und dann nach hinten raus ziehen sie die Taktung generellzum Glück ein bisschen hoch.Aber diese Folgen zwischendurch die sind schon auch,aber du hast dann da wirklich auch in Folge 1, 2 und ich glaube auch in 4 und5 hast du halt auch Szenen wo Leute irgendwie am Mittagstisch sitzen und Alltagbesprechen, das will ich in Star Wars nicht sehen, echt nicht.So und das hat auch kein irgendwie, das kommt dann auch nicht im nächsten Previously.Also ich hätte auch gesagt Andor kannst du gut auf die Hälfte runtercutten.Der ganze Mon Matma Plot fand ich total überflüssig, da passiert eigentlich gar nichts.Es gibt eine lange Besprechung mit den Kulturdeliktanten, da kann man sich dasalles nochmal in Länge anhören, warum ich da so Schwierigkeiten mit habe undwas ich jetzt bei Mandalorian wirklich nicht verstehe ist halt so der Übergangvon zweiter Season zu dritter Season.Ganz tolles Ende, zweite Season, Krogu, also Baby Yoda geht weg und Luke nimmtihn mit, fantastischer Auftritt, episch, alle geweint.So und die erste Folge, Season 3, ach ja da ist er übrigens.Wenn ihr euch fragt wieso, ja da müsste Boba Fett gucken. Und dann guckst duBoba Fett und siehst okay da sind halt zwei Folgen Mandalorian reingearbeitetund ich verstehe natürlich was der Gedanke dahinter ist,die wollen halt jetzt so ein Mando-Verse aufziehen, so wie es halt irgendwie,ansonsten Disney ja auch mit den ganzen, na wie heißt das andere große Franchise?Nein, Guardians of the Galaxy und Marvel, das Marvel-Universe,wo alles mit allem verwoben ist und dann irgendwie wieder in großen Kulminationsfilmenzusammengetragen wird und sowas.Genau so eine Schiene wollen die da halt bringen.Du kannst doch nicht ernsthaft von Leuten erwarten, dass sie zwischen der zweitenund der dritten Season irgendwo oder erstmal woanders nachgucken müssen,wie jetzt der Hauptplot um den Hauptcharakter irgendwie weiterging.Ja. Ich muss nochmal gucken, ich glaube sie bringt es noch nichtmals in irgendeinePreviously Sequenz, was jetzt eigentlich mit Luke los war und dass er sich entscheidenmusste, will er jetzt ein Lorianer werden oder will er jetzt ein Jedi werdenund natürlich entscheidet er sich für sein Papa.
Tim Pritlove 0:28:33
Das war in Boba Fett.
Ralf Stockmann 0:28:33
Das war in Boba Fett, ja.
Tim Pritlove 0:28:34
Richtig, Boba Fett auch gesehen, das war auch langweilig.
Ralf Stockmann 0:28:36
Ja das hatte auch drei gute Folgen das waren halt die beiden Mando Folgen pluseiner anderen und der Rest war halt auch irgendwie fies. Es ist schwierig.
Tim Pritlove 0:28:45
Freuen wir uns auf Star Wars 10.
Ralf Stockmann 0:28:48
Ja es sind jetzt drei neue Filme angekündigt das wird in der Tat glaube ich ganz spannend.
Tim Pritlove 0:28:54
Also auf jeden Fall, 4. Mai ist so ein bisschen der Tower-Day der Star Warsies,wie heißen die denn eigentlich?Star Warsies? Trekkies sind von Star Trek und wenn man bei Star Wars ein Fanist, gibt's da auch einen Namen für? Ist man dann irgendwas?
Ralf Stockmann 0:29:16
Jedi vielleicht? Nicht notwendigerweise natürlich. Das was ich jetzt gerademal in den Chat gepostet habe ist das traurigste was man heute glaube ich sehenkann, nämlich Marco Buschmann von der FDP der Grogu hoch hält und behauptet es sei Yoda.Tiefer werden wir heute nicht mehr fallen.Yoda und ich werfen heute ein. Auch sehr schöner Tut dazu von Marco Bohnen sagter. Nebenbei Grüße, hier ist Highlancer.
Tim Pritlove 0:29:42
Und wieso schreibst du so wanstman sich nicht glaubhaft an Star Trek Fans ran. Ist ok, doppelter Witz.Naja. Alright. So. Und kommen wir mal zu dir Björn. Jetzt müssen wir erst mal hier, äh...
Björn Reimer 0:30:01
Was kommt jetzt?
Tim Pritlove 0:30:02
Na, du hast heute Geburtstag.
roddi 0:30:09
May the 4th be with me. Genau.
Tim Pritlove 0:30:12
Ich dachte ja, du hast einen besonderen Bezug zu Star Wars, deswegen.
Björn Reimer 0:30:17
Ja, daraus konnte ich auch sehr gut merken, wann dieses May the 4th überhaupt entstanden ist.
Tim Pritlove 0:30:21
Ja, wann denn?
Björn Reimer 0:30:21
Weil ich würde sagen, das fing an so vielleicht vor acht bis zehn Jahren,das müsste man nochmal recherchieren, wann das wirklich groß ist,aber das ist so, wenn ich meine Erinnerungen nicht täusche, das wo das natürlichständig erwähnt wird, wenn man an diesem Tag Geburtstag hat.Das ist nicht neu mehr für mich. May the 4th be with you.Aber ja, das gibt es noch nicht so lange wie Star Wars auf jeden Fall.Zumindest in meiner Erfahrung.
Tim Pritlove 0:30:45
Nee, nee, das kam irgendwann später. Ich weiß auch gar nicht warum.Ich fand es auch nicht so wichtig.So, aber das tut ja auch nichts zur Sache, aber vielleicht kannst du ja malso ein bisschen erzählen, was du so für ein Nerd bist.Du hast ja unter anderem so ein Hackerspace gestartet, aber vielleicht kannstdu dich ja mal selber mal einführen.
Björn Reimer 0:31:04
Ja, ich fang mal vielleicht vorne an,also der Kern von irgendwie, was mich viel beschäftigt ist Softwareentwicklungund genauer gesagt verdiene ich seit einiger Zeit mein Geld mit Elixier und zwar bei einer Firma,die hier ja auch schon bekannt ist, VUGA, also Computerspiele,Backends, da ist das glaube ich auch sehr, sehr gut für geeignet.
Tim Pritlove 0:31:24
Also bis jetzt sozusagen in der Abteilung, in der Huckel früher war.
Björn Reimer 0:31:28
Ja also in dem gleichen Gebiet da hat sich einiges einiges geändert,also es ist ja auch eine Firma die gewachsen ist, wo sich auch jetzt ich sagmal mehr vom Startup zu einer kontinuierlichen Firma geworden,auf was wir machen und wie wir das da alles machen, aber genau in dem Bereich,wir sind da, früher Erlang, Ruby gab es da auch ganz ganz viele andere Sachenund ich war da einer derjenigen, der schon vor Jahren mitgeprägt hat,als wir ein neues zentrales Backend System gebaut haben, das halt komplett in LXC aufzubauen.Und mittlerweile entwickeln wir, ich würde sagen seit mindestens fünf Jahrenim Backend nichts mehr außer LXE. Also es gibt noch ein paar alte Sachen.
Tim Pritlove 0:32:05
Backend heißt sozusagen die ganzen Gameserver.
Björn Reimer 0:32:07
Genau, alles was irgendwie auf dem Server passiert.
Tim Pritlove 0:32:10
Wie groß muss man sich WUKA so vorstellen mittlerweile? Also hast du da irgendwelcheZahlen oder Größenordnungen?
Björn Reimer 0:32:17
Also eine Zahl die man vielleicht nehmen kann, gerade haben wir so ungefährzwei plus ein bisschen Millionen Spieler am Tag.Das ist so eine Zahl die man so nehmen kann. Mhm.Größe von Anzahl der Leute sind es 300, 350 würde ich sagen.Die Pandemie hat Spielfirmen sehr geholfen, würde ich mal sagen.Während wir dann alle im Homeoffice waren, ist die Firma größer geworden als das Büro in dem wir sind.Und ja, jetzt teilen wir uns das Büro und nehmen, weil wir in Schichten immerda reingehen, weil wir nicht mehr alle reinpassen.Genau, also es hat sich auch insofern erinnert, früher gab es sehr,sehr, sehr viele kleine Spiele, also die Spielebranche hat sich sehr verändert,weil früher ging es darum ein Spiel zu machen, das war ein Hit und dann ginges weg und das war auch, sag ich mal, relativ, relativ einfach ein erfolgreiches Spiel zu machen.Heutzutage ist das kein Geheimnis mehr, dass Computerspiele gerade auf dem Handysehr sehr viel benutzt werden. Man hat halt einen weltweiten Markt mit sehrsehr vielen Leuten die da spielen und da ist es schwerer geworden.Das heißt an einem Spiel sitzen jetzt 100, 150 Leute.Das waren früher eher 10, 20.Und das ist verteilt auf alle Gewerke.
Tim Pritlove 0:33:35
150 Leute entwickeln an einem Spiel oder administrieren also alles, ne? Also Developer.
Björn Reimer 0:33:41
Genau, das fängt an von Leuten, die sich um Story erstmal kümmern,also das ist so eine unserer Spezialitäten, dass wir Spiele bauen,die sehr stark auf Geschichte basieren.Also in den Spielen werden Geschichten erzählt, wir releasen auch immer neueGeschichten, also neue Kapitel zu den Spielen.Dann die ganzen Game-Designer, die Artists, die Künstler, 2D, 3D, das alles rum.Dann natürlich Software-Entwicklung, im Client-Unity, da haben wir eine Menge Leute.Dann im Backend, LXC, dann aber auch hinten rum Data, Data-Science,das ist eine riesen Preise-Palette und dann noch, das ist noch gar nicht Publishingund alles mit drin. Und das summiert sich.Und heutzutage muss man extrem Aufwand betreiben, um sich um die Erwartungen des Marktes zu kümmern.Ja, da verdiene ich mein Geld, aber das ist nicht alles. Neben zwei Kindern,die mich sehr viel noch beschäftigen, mache ich in meiner Freizeit versucheich einen Hackspace zu organisieren.Genauer gesagt den X-Sign, hier im Nachbarbezirk, im schönen Friedrichshain.Das war auch eine interessante Reise. Das war gar nicht so geplant,dass das so groß wird. Wir haben damals angefangen in einem kleinen Ladenlokalin der Grünberger Straße und ja mittlerweile sind es… Wann ist damals?Vor sieben Jahren, ziemlich genau jetzt.Und jetzt sind es 130 Mitglieder, die da hinkommen und von Software,aber auch Hardware, Making, also wir sind relativ breit aufgestellt, alles dort machen.Also wir haben auch eine Nähecke, 3D-Drucken, Laserkarten, die üblichen Sachen.Und ja, auch über Alex Hirwitt da geredet, unter anderem.
Tim Pritlove 0:35:32
Die üblichen Sachen, du bist gut, also ich meine es gibt ja so eine und so eineHackerspaces, es gibt so welche, so was weiß ich, so wie CCCB,wo halt wirklich mehr so Developer und Polit orientiert ist,bisschen elektronik gemacht wird aber nicht so vielbastel kram so unddann gibt es welche die sich aber sehr viel mehr wiederum in diesem spielerischenmit so 3d druck festgesessen haben aber dann so an anderen stellen irgendwienicht so präsent sind und ich finde das im x-heim ist es sehr ausgewogen alsodas würde ich von allem was da auch so räumlich nimmt irgendwie alles mehr oderweniger gleich viel Platz ein,Dunkelkammer, dann hast du irgendwie so einen Lasercutter,gibt eine valide Holzwerkstatt mit Drehbank, mit Bandsäge, mit CNC Fräse,also es ist irgendwie alles da, Werkzeug ist irgendwie alles da und wenn man irgendwas machen will.So dann kann man irgendwie sofort loslegen, egal worum es sich irgendwie handelt,selbst wenn man irgendwie Elektronikprobleme hat, gibt's dann irgendwie Laborund irgendwie sitzt auch.
Björn Reimer 0:37:19
Ganz anders, also eine ganz andere Spannbreite machen kann. Man kann halt irgendwie,jemand baut was und dann macht man da LEDs rein und dann schreibt man dafür die Software,das ist ja eine unglaubliche Spannbreite und das kann man halt alles,man hat halt dort die Leute, wo man von lernen kann und das gemeinsam machenkann und eine Sache, die uns auch glaube ich auszeichnet ist,wir haben halt ein riesengroßes, Also wir sind in einem Ladenlokal, sag ich mal.Also wir haben große Schaufenster, das heißt man kann vorbeilaufen,da stehen auch einige Sachen drin in den Schaufenstern, was Eltern mit Kindernlieben, aber auch hassen, je nachdem wie schnell sie zur Kita kommen wollenoder müssen, weil die ganzen Kids davor stehen.Aber es erzeugt halt eine wahnsinnige Offenheit. Es kommen immer wieder Nachbarnrein, die sagen, hey, mich hat so interessiert, was ihr hier macht,was macht ihr hier eigentlich?Übrigens jeder der interessiert ist kann montags bei uns vorbeikommen.Das ist immer unsere offene Abend. Da sind meistens auch immer viele Leute da,die erzählen was sie machen. Man kann da eine Tour bekommen,sich diese ganzen Bereiche zeigen lassen.
Tim Pritlove 0:38:16
Und gefühlt findet die ganze Zeit irgendeine Tour statt. Wenn man da ist,immer wenn ich mich da aufgehalten habe,stand immer gerade irgendjemand so im Eingang rum, der so ein bisschen so,was ist das denn hier, so und dann dauert es auch keine 10 Sekunden und dannwird die Person schon von irgendjemand abgeholt und kriegt halt so die Rundtour.Das finde ich irgendwie ein echtes Feature so welcoming zu sein.
Björn Reimer 0:38:40
Das ist aber auch unglaublich interessant, was man da für Leute und Geschichten erfährt,wenn man so irgendwelche Leute, die erstmal so schüchtern da reinkommen,so ha ich hab gehört hier gibt's Touren und dann fängt man an mit denen zu redenund dann hört man plötzlich interessante Geschichten,wo die herkommen, was die für Zeug machen, das ist wahnsinnig interessant unddas ist auch echt cool, weil da muss man gar nicht mehr so viel rumgehen,die Leute kommen jetzt alle her, das war auch nicht so erwartet,als wir damit angefangen haben, aber.
Tim Pritlove 0:39:06
Das X-High ist auch erstaunlich international, finde ich.
Björn Reimer 0:39:11
Also, ja, ich kann das jetzt nicht so gut vergleichen, aber es sind schon vieleLeute, es wird sehr häufig Englisch gesprochen, ja.
Tim Pritlove 0:39:18
Ja ja viele Amerikaner, also aus verschiedensten Ländern aber halt so Englischist da einfach wirklich second language,das merkt man schon, dass da einfach und zwar jetzt nicht nur die als Gast mal reinschauen,sondern die auch dauerhaft da sind und dann halt auch die Touren dann gleichin Englisch machen, wenn der Bedarf da ist und das fand ich schon ganz geil,ja das ist auf jeden Fall ein schönes Experiment und ein sehr brauchbarer Sozialraum.
Björn Reimer 0:39:46
Ja, das würde ich auch sagen. Das ist in erster Linie. Es ist auch mittlerweile,gerade auch Montage, sind für mich viel mehr hingehen, mit Leuten reden,Leute kennenlernen und für Projekte komme ich dann immer an anderen Tagen,weil ja, das in erster Linie für viele Leute ein Sozialraum geworden ist unddas war auch eine große Motivation für uns, als wir angefangen haben.Wir wollten halt einen gemeinsamen Ort haben, wo wir an Zeug bauen können,aber uns auch erstens treffen können. Wo man einfach hingehen kann und da istdann meistens jemand und das ist es auch wirklich geworden.Ich könnte jetzt nicht behaupten, es gab einen Masterplan, das ist so entstanden.
Tim Pritlove 0:40:23
Ja, so Sachen kann man auch nicht planen. Das ergibt sich eigentlich immer so ein bisschen.
Björn Reimer 0:40:29
Ja, das ist ja mein Hobby, was manchmal sehr viel Zeit nimmt aber auch sehr viel Spaß macht.
Tim Pritlove 0:40:38
Ja cool. Gut. So, jetzt wollen wir mal ein bisschen mehr Feedback machen,gab ja so das eine oder andere.Aber vielleicht vorweg noch ne schlechte Nachricht,die wir vielleicht ansprechen können, es gibt nicht so richtig viel was wir darüber wissen,aber es ist jemand gestorben aus der großen deutschen Podcast Gemeinde,nämlich Nikolaus Seemak, den viele vielleicht von euch kennen,weil ihr ihn gehört habt, Oder zumindest so auch als umtriebige Person wahrgenommen habt.Nikolas hat die Elementarfragen gemacht, das war glaube ich sein erster Podcast, damit ging es los.Ähnliches Format wie mein CAE, also auch so Interview, längere Gespräche mit Leuten,viele Promis dabei und dann hat er auch mit Freunden vor einigen Jahren diesesPodcast Label gegründet 4000 Hertz.Du kanntest ihn ja auch Ralf ne?
Ralf Stockmann 0:41:51
Genau, ich kannte ihn ein bisschen über die Subscribe eigentlich kennengelernt,also unsere Podcast Tagung, die wir ja viele Jahre gemacht haben und da warer dann auch mal zu Gast genau und wir hatten dann ja auch so den einen oderanderen Disput über die Ausrichtung so wie das deutsche Podcast Wesen.Um diesen abgegrenzten Begriff mal zu nehmen, in welche Richtung sich das entwickeln sollte und.Er kam ja aus dem professionellen Medien, Und wir haben in der Tat mal eineNullnummer auf der Republika aufgenommen mit Nikolas und mir und Claudia soals halbe Moderation dazwischen.
Tim Pritlove 0:43:35
Wurde das auch veröffentlicht?
Ralf Stockmann 0:43:36
Das wurde nicht veröffentlicht, das wird auch nie veröffentlicht.Weil es hat auch nur so semi gut funktioniert.Also es war ein total zivilisiertes Gespräch, ich glaube und das hätte er vielleicht unterschrieben,dass wir am Ende glaube ich von unseren Positionen nicht wirklich irgendwo abgerücktsind und dann konterkarierte das etwas so die eigentliche Formateidee der ganzen Geschichte.Ja also das ist schon finde ich ein harter Schlag,weil gerade einer der ersten, die halt sowas wie ein Label, ja so klar Meta-Ebenegab es natürlich auch schon,ich weiß du hast damals etwas die Augenbraue gelupft,als es dann hieß so das erste deutsche Podcast Label geht an den Start mit 4000Herzen und die Meta-Ebene gab es zu dem Zeitpunkt schon wie viele Jahre,aber das ist so die Medienerzählung und das deutsche Podcasttum,das ist ja sowieso eine Geschichte voller Missverständnisse.47 ist er nur geworden. 47 Schlaganfall.Das gab es in einer der Berliner Zeitungen, suche ich gleich nochmal raus fürdie Shownotes, da gab es eine kurze Würdigung nochmal und ich habe ihn in derTat viel lieber gehört, als dass ich mit ihm diskutiert habe.Also absolut legendär, das würde ich auch gerne gleich in die Shownotes nochmal reinwerfen,das finde ich sein Interview in den Elementarfragen mit Rainer Langhans,also damals Kommune 1 und ich bin ja so ein verhinderter Alt-Hippie,ich bin ja sauer, dass ich nicht bei 68 dabei sein konnte, Mangelsalter.Und was er da mit dem ja doch völlig verschrobenen und schon irgendwie dochin seiner sehr sehr eigenen Welt lebenden Rainer Langehans, was sie trotzdemda für ein Gespräch, ich glaub zwei Stunden oder sowas geht das ungefähr,zusammen kriegen, ganz toll.Das kann man sich, finde ich, immer noch wunderbar anhören. Für mich eine ganzpersönliche Sternstunde des deutschen Podcasts.
Tim Pritlove 0:45:29
Ja was für ein Vogel, da fang ich jetzt nicht mit an,ich hab auch so eine Story mit ihm, aber er hat noch beim Podcast Mikrodilettanten,da hat er so einen Laber Podcast gemacht, Zusammen mit Gero und Phil,da war ich einmal dabei mit Holgi, da haben wir das Intro gesquattet,das war so ein gespielter Witz, das war ganz gut.Und der hat ja mit Holgi auch sehr viel zusammen gemacht.Ja Nikolas, das ist schade und insofern sagen wir liebe wohl und tschüss.Seine Stimme ist noch da und Podcasts werden auch in 500 Jahren noch gehört, auch Deine.So kommen wir zu unserem Feedback, da gab es so einiges.Ja, viele Kommentare, schön, dass ihr wieder da seid, das hat uns sehr gefreut.Du hast aber auch im Nachgang noch rund um die Mastodon Social Media Diskussionnoch das eine oder andere ausgefochten.
Ralf Stockmann 0:46:43
Ehrlich gesagt gar nicht so viel, also wir haben, ich hab eben mal gezählt 140Kommentare im Blog, dazu noch ungefähr 50 auf Mastodon.Nichts auf Twitter, was ich als persönlichen Erfolg verbuche,da haben wir die Publikation ja quasi auch totgeschwiegen.Das auf Mastodon, das war alles natürlich alles flauschig und friedevoller Eierkuchen,weil Preaching to the Choir, das war natürlich erwartbar, dass sie das gut fanden,dass wir das Thema da mal aufgreifen.
Tim Pritlove 0:47:14
Endlich hört uns einer.
Ralf Stockmann 0:47:15
Es gab im Blog in der Tat einen schönen Hinweis von einem Björn,nämlich dass es durchaus einen Weg gibt, auf Mastodon in seinem Namenshändeleine eigene Domain unterzubringen.Ohne dass man eine eigene Instanz betreiben muss. Und das ist auch nicht irgendeinkruder Hack, sondern das ist in der ganz offiziellen Doku von Mastodon,kann man sich das angucken.Technologie dahinter ist Webfinger, man legt also eine JSON-Datei,sehr übersichtlich, sehr kurz, irgendwo auf einen Server, dessen Domain mangut findet und wo man halt entsprechend Zugriff hat auf dieses Well-Known-Verzeichnis.
Björn Reimer 0:47:59
Der RFC ist von 2013, das ist also schon abgehangen.
Ralf Stockmann 0:48:03
Gut abgehangen, genau. Und dann kann man in der Tat.
Tim Pritlove 0:48:06
Lange ignoriert und jetzt endlich wieder ins Gespräch gekommen.
Ralf Stockmann 0:48:09
Kann man eine der Schwächen oder diese Derate von Mastodon damit eben ausgleichen,wenn du dann die Instanz wechselst und dann normalerweise deinen Namen dannauch wechseln müsstest?Und mit der Methode kann man sich quasi dauerhaft einen konstanten,stabilen Namen besorgen.Das schmeißen wir mal in die Schaunotes rein. Danke Björn für den Hinweis dazu.
Tim Pritlove 0:48:32
Jetzt gibt's ja auch Blue Sky, aber wir haben alle noch keinen Invite bekommen.
Ralf Stockmann 0:48:38
Ja wir sind nicht hip genug, eindeutig. Also ist das von einem der Twitter Gründer?
Tim Pritlove 0:48:43
Ja von dem Jack Dorsey einst, der hatte mal so eine Phase wo er wirklich derMeinung war Twitter müsste ja eigentlich dezentralisiert und frei und open sein.Ich werde aus dem Typen eh nicht schlau also er ist für mich ein totales Mysteriumirgendwas dazwischen ich verstehe ihn überhaupt nicht und teilweise hatte ichso den Eindruck dass er doch noch alle beisammen hat aber ich bin mir nichtso ganz so sicher ob das überhaupt geht in dieser Szene.
Ralf Stockmann 0:49:04
Ist auch glaube ich hart in der Kryptoblase abgetaucht und unterwegs und auchnie wieder so richtig hoch gekommen.
Tim Pritlove 0:49:09
Ja das ist halt das Problem, also die sind irgendwie alle so ein bisschen verspult so,aber ab und zu kommt ja auch mal was interessantes bei raus und dieses BlueSky war ja dann so ein Proposal,das hing da so ein bisschen in der Luft und ist ja dann durch diese Übernahmevon Twitter ohnehin so ein bisschen unter die Räder gekommen,aber dann haben sie Ende letzten Jahres dann tatsächlich irgendwie eine Gruppeangefangen das wohl umzusetzen und jetzt gibt's das als App, ist das richtig sehr?
Ralf Stockmann 0:49:34
Nur als App derzeit, keine Webseite und Invite only.
Tim Pritlove 0:49:38
Genau, invite only, das kennen wir ja schon.
Ralf Stockmann 0:49:41
Wir nennen uns Clubhouse.
Tim Pritlove 0:49:43
Genau und das ist auch so ähnlich wie Clubhouse, also sie machen auch so invite graphs und so weiter,also müssen wir mal gucken inwiefern sie dann sozusagen auch so Punishment machenfür du hast hier die ganzen Idioten reingeholt, du darfst jetzt hier gar nichtsmehr und so, also das wird nochmal ganz interessant.Klar kann sein, dass das so yet another social media fail wird,kennen wir das Internet?War das jemals schon mal anders? Leute probieren halt Dinge und dann gucken wir mal ob's passiert.Aber ich würde auch noch nicht sagen, dass das Ding jetzt schon durch ist.Wie, wer, wer sozusagen, also ob Twitter Relevanz behält?Seine Relevanz, also irgendeine Relevanz wird es behalten,aber es hat natürlich seine, un, nicht das falsche Wort wählen,also die die Relevanz die es hatte, hat es jetzt nicht mehr,aber es ist noch keiner da der mehr Relevanz hat.
roddi 0:50:48
Es ist noch nicht MySpace.
Tim Pritlove 0:50:50
Es ist noch nicht genau es ist noch nicht MySpace, es ist noch nicht von irgendwaskomplett überrollt worden, es ist halt nur scheiße.
Ralf Stockmann 0:50:57
Ich würde sagen es kommt ein bisschen auf die Domäne an, also wie wir in derletzten Sendung auch versucht haben hoffentlich ein bisschen rauszuarbeiten,wenn du beispielsweise den deutschen Wissenschaftsbetrieb anguckst.
Tim Pritlove 0:51:07
Du wolltest sagen Blase.
Ralf Stockmann 0:51:09
Ja das nennt man so, kann man da ganz wertfrei, kann ich da auch von Blase sprechen,völlig okay. Es sind trotzdem irgendwie ein paar tausend Hansel,die jetzt irgendwie halt die deutschen Digital Humanities dort ganz gut zusammenbringenauf Art und Weise wie sie es auf Twitter nicht gemacht haben.
Tim Pritlove 0:51:22
Ich rede aber jetzt schon vonGlobal Appeal, nicht von irgendwo in Deutschland gibt es ein paar Leute,die finden das geil, sondern halt, dass das sozusagen,weil ich meine das war so meine, mein Gefühl als ich auf Twitter gestoßen bin,war, das wird der globale Chat, das ist der Ort, wo sich die Welt unterhält.Vielleicht ein bisschen hyperbolisch, aber ich denke so ganz falsch habe ichdamit nicht gelegen. So, es war...Tweets im Fernsehen.Donald Trump hat gesagt, Obama twitterte, oh mein Gott,hier ist irgendwas passiert, das sind die ersten Reaktionen auf Twitter,also das ist nicht mit Facebook passiert, das ist nicht mit YouTube passiert,Twitter war schon der Ort und ist es auch noch gerade so.Und jetzt müsste halt irgendwas kommen, was in der Lage ist,Twitter da so wirklich final die Eier abzuschneiden.Und ob Mastodon dazu die Power hat, da habe ich noch meine Zweifel.Es ist eine super Lösung für viele Communities, es löst viele Probleme,die andere Leute mit Twitter hatten und die gesehen haben, Twitter war nie dasrichtige für mich, aber das ist das richtige für mich.Wunderbar ja trotzdem ist es noch nicht der Kampf um diesen globalen Chatraum,der ist noch nicht, der hat noch nicht angefangen oder wenn dann liegen die,also da ist die Armee noch nicht im Boot.
Ralf Stockmann 0:53:01
Bin mir nicht sicher ob es denaber auch überhaupt nochmal geben wird so beziehungsweise auch geben muss,also Blue Sky ist im Moment halt ne ziemlich US Geschichte so da machen siejetzt gerade richtig Hype, Also mit den Klammern muss man auch mal sagen derzeitglaube ich 50.000, 55.000 Accounts.Aber die sind natürlich alle sehr laut, weil sie natürlich irgendwie halt,hast du auch schon gesagt, der Social Graph ist natürlich jetzt schon sehr Premium,den sie da jetzt gerade am Start haben.
Tim Pritlove 0:53:27
Jetzt kommen wir erstmal ganz im Problem.
Ralf Stockmann 0:53:29
Genau, das zieht natürlich schon, aber das hatten wir wirklich ja eins zu einsbei Clubhouse, letztendlich kann man sich ja wirklich angucken wie sowas läuftund die entscheidende Frage für mich wird sein,schaffen sie irgendwann mal den Sprung, den Clubhouse nicht oder viel zu spätgeschafft hat, nämlich von diesem Invite-Oni da mal weg zu gehen und wirklichirgendwo in den Mainstream rein zu kommen.Und zum anderen dieses Versprechen, naja wir sind ja auch dezentral,wir setzen ja auf dem AT-Protokoll auf, was grundsätzlich erstmal Dezentralität verspricht.Dann guckt man sich aber an, okay, Anzahl der Server vom BlueSky exakt eins.So das heißt also es gibt derzeit nur diese eine zentrale Instanz,was alle als großen Gewinn feiern,weil hey, endlich ist man wieder alle beisammen und man hat diesen einen Kommunikationsraumund ich muss mich darum kümmern wem folge ich,damit ich von der anderen Instanz was mitbekomme, ja gut und schön aber dezentral,derzeit ist es eine Blaupause, ein Versprechen, was erstmal eingelöst werdenmuss und wie sie dann mit Trollen, Nazis, whatever umgehen und das ganze Moderationsgamedann anfangen irgendwie zu spielen ist halt auch noch völlig unklar.
Björn Reimer 0:54:26
Ist das dezentral im Sinne von Mastodon oder ist das nur so ein Rubberstamping?
Ralf Stockmann 0:54:31
Das ist so wie ich's verstanden habe quasi schon so ein Alternativprotokollund grundsätzlich könnte man die beiden glaube ich sogar bridgen.Also ist es nicht Fediverse, also Mastodon ist ja wiederum nur eine Implementierungvom Activity-Pup-Protokoll.Und das AT-Protokoll ist schon was anderes, aber wäre nicht so,dass man das nicht durchaus auch über Apps zusammen integrieren könnte.So jetzt mein Stand, ohne dass ich mich jetzt allzu tief damit beschäftigt hätte.Aber derzeit haben die halt da null Interesse dran, weil sie wollen halt erstmal ihren Hype-Train.
Björn Reimer 0:55:04
Und haben die ein Business-Modell dann?
Tim Pritlove 0:55:08
Nobody knows.
Ralf Stockmann 0:55:09
Crickets and tumbleweeds.
Björn Reimer 0:55:11
Das beantwortet ja wahrscheinlich schon mal viel.
roddi 0:55:14
Haben sie denn wenigstens Startup-Kapital?
Ralf Stockmann 0:55:16
Was sie auf jeden Fall wohl haben ist eine ganz gute Onboarding Experience.Also wie fühlt sich die App an, wenn ich jetzt so im Zero State vorbeikommeund noch nichts ist eingerichtet.Das machen sie wohl ganz gut. Wobei ich auch da sagen muss, wenn man jetzt dieaktuelle offizielle Mastodon App installiert oder wenn man hier Ivory installiert,also den Tweetbot Nachbau oder Ice Cubes, die haben auch schon echt gute Onboardings mittlerweile.Also das Mastodon Onboarding jetzt im Mai 2023 ist nochmal ein ganz anderesals im Januar 2023 selbst war.Also da würde ich dann auch nochmal gerne die beiden Systeme nebeneinander halten.Viele, die jetzt das Onboarding von vor drei Jahren im Kopf haben von Mastodonund sagen so, oh das ist jetzt alles so viel besser hier bei Blue Sky,ja macht euch nochmal einen neuen Account und macht das mal über die offizielle App.Da wirst du eigentlich schon genauso auch auf deinen zentralen Server erstmalhingeleitet und folgt mal folgenden Leuten, die sind hier hip unterwegs.So viel anders ist das glaube ich nicht. Aber I may be wrong.
Tim Pritlove 0:56:16
Ja wird sich zeigen. Also ist auf jeden Fall interessant, dass es da nochmaleinen neuen Ansatz gibt.Sie versprechen ja auch sowohl eine chronologische als auch eine algorithmischeTimeline und sie versprechen auch komplette Portabilität einschließlich desContents. Was wir wiederum Masterdon nicht.
Björn Reimer 0:56:37
Also...
Tim Pritlove 0:56:40
Kann gut sein, dass es auch auf so eine Art technologischen Wettbewerb hinausläuftund vielleicht ist am Ende die Lösung ja sozusagen the merge of all this,so who knows, also könnte könnte noch interessant werden.
Ralf Stockmann 0:56:55
Also der Schöpfer von Mastodon hat ja gerade jetzt vor zwei drei Tagen auchso ein bisschen die Roadmap jetzt für Mastodon rausgegeben und es wird eineSuche über alles geben und es wird Quoting geben von Toots, hell freezes over.
Tim Pritlove 0:57:09
Das heißt Prost.
Ralf Stockmann 0:57:12
Also das sind natürlich schon Reaktionen darauf so okay da draußen die Weltbleibt nicht stehen und man wird vielleicht das ein oder andere Dogma dann doch mal über Bord werfen.Ich hoffe sie machen das alles mit Opt Out. Also meine Wunschvorstellung wäredas erstmal alles aktiviert ist und aber eben die Communities die sich davonabkoppeln wollen und die einfach einen Schutzraum brauchen,dass die also mit einem einfachen Klick sich aus den Sachen raus opten können.Das denke ich wäre schon sinnvoll.
roddi 0:57:37
Ich glaube, dass die Zukunft von Twitter eher im Twitter-Headquarter entschiedenwird, als bei Mastodon oder Blue Sky, ehrlich gesagt.
Björn Reimer 0:57:45
Also es wird sterben.
roddi 0:57:47
Naja, sagen wir mal so, wenn sie den Kurs beibehalten, den sie jetzt haben undalles kurz und klein kloppen, dann wird es kurz und klein sein.
Björn Reimer 0:57:55
Das meinte ich damit.
roddi 0:57:57
Also ich glaube, solange es Mastodon jetzt gibt und wie wenig das Relevanz hatte,bis Elon da mit seinem Waschbecken eingeritten ist bei Twitter,zeigt halt auch ganz deutlich, warum Mastodon jetzt so groß ist,weil Twitter so scheiße geworden ist.
Tim Pritlove 0:58:20
Definitiv. Alright, so dann gab's noch ganz viel Feedback zum Thema, Tim hat's ja nicht alle.
Ralf Stockmann 0:58:29
Wer würde ihm widersprechen?
Tim Pritlove 0:58:34
Was erlaube Tim so und ja ich hab das mit Interesse gelesen,was da alles so gemeint wurde zu meinen Auslassungen über das objektorientierteParadigma und so weiter und es gab ja da auch diverse längliche Kommentare,die irgendwie ja versucht haben ein wenig diesen Case zu machen,was man immer gerne so hört mit so ja aber in meiner Sprache kann ich das auchalles machen und so schlimm ist es ja nicht und das was ihr da macht in eurenfunktionalen Programmiersprachen das ist ja am Ende auch nur OOP also gehabtalle möglichen Darstellungen,muss aber zugeben, dass mich relativ wenig davon wirklich nennenswert überzeugthat was da so kam und vor allem gab es ein paar interessante Missverständnisse und das Kern,eins der auffälligsten Missverständnisse war und das habe ich glaube ich auch nicht so ausgeführt.Einmal nochmal vielleicht worum es mir ging und was das auch konkret bedeutet.Also ich habe ja die ganze Einlassung in das Thema,Okay, poemieren und wo stehen wir denn sozusagen mit Poemiersprachen heutzutageund warum ich auch der Meinung bin warum Objektorientierung relativ wenig bietetfür das was wir heutzutage so benötigen?Und es einfach nur deshalb gemacht wird, weil es da ist und weil alle davonreden, war ja das Problem mit der Nebenläufigkeit.Und Nebenläufigkeit ist von vielen auch so ein bisschen unter diesem Aspektvon Parallelität wahrgenommen worden.Also man hat ja so dieses Ja-Multichor und da heizt dann alles parallel unddu meinst ja auch, Audio ist ja eine schlechte Anwendung, weil das kann manja nicht parallelisieren und so weiter.Das mag alles richtig sein, dass das in einzelnen Fällen nicht parallelisierbarist, aber Parallelisierbarkeit ist nochmal ein ganz anderes Thema.Und ein schönes Gleichnis, was ich gefunden habe, ist, also der Unterschiedzwischen Nebenläufigkeit und Parallelisierung ist in etwa der.Parallelisierung ist, wenn fünf Leute parallel ein Ikea-Bett zusammenschrauben.Jeder sein eigenes Bett. Das ist so volle Parallelisierung.Nebenläufigkeit ist, wenn fünf Leute ein Ikea-Bett zusammenschrauben.Und dann hängt es sehr viel damit zusammen,wer hat schon die Schrauben ausgepackt, ist die Tüte schon aufgemacht,wo liegen denn jetzt die Schrauben, wann brauchen wir denn die Schrauben ganz genau,in welcher Reihenfolge machen wir das, wo legen wir das Holz hin,wenn wir gerade nicht dran arbeiten müssen, wer jetzt da drüber gestolpert ist,ist das jetzt das Richtige, hab ich das verwechselt, oh scheiße ich muss nochmalin den Nebenraum, wo sind denn jetzt nochmal die Schrauben, hab ich überhaupt das richtige Werkzeug.Man verliert so viel Zeit in diesen kleinen Übergängen,in diesen Kanten, wo die eine Arbeit in die andere Arbeit übergeht und wo vorallem verschiedenste Akteure sich unterschiedlichen Teilproblemen zuwenden müssen und die teilweise,Ja jetzt könnte ich sagen parallel, nebenläufig sind, also ich kann die Schraubentüten öffnen.
roddi 1:01:52
Du musst parallel sagen, aber es ist klar du kannst die Schraube nicht reinschraubenbevor nicht die Tüte aufgemacht wurde wo die Schraube drin ist.
Tim Pritlove 1:01:59
Genau, aber es ist nicht parallel die selbe Arbeit, sondern es sind Dinge dieim besten Fall auch parallel laufen, aber nebenläufig sind in der Definition,dass sie erstmal so nichts miteinander zu tun haben.Sie haben keine unmittelbaren Abhängigkeiten so lange bis das eine das andereanfordert oder bis das eine nicht mehr weitermachen kann bevor das andere nicht da ist.Und diese ganzen kleinen Pausen, die sind so ein bisschen das Ärger des,dass einfach die Systeme heutzutage einem relativ wenig in die Hand geben,um genau das zu optimieren.Und das ist halt das Problem mit nahezu allen Programmiersprachen,die alle in irgendeiner Form Single-Threaded sind,die einfach nicht generell von sich aus Parallelität fördern oder Nebenläufigkeitfördern und das war sagen wir mal der Punkt den ich gemacht habe und warum ichauf das Erlang Ökosystem verwiesen habe,weil das so eine Grunderkenntnis war beim Design von Erlang.
Björn Reimer 1:02:59
Ich würde das vielleicht ein bisschen verfeinern, weil es geht da zwar auchum das Funktionale, aber vielmehr noch um das, was in der Erlangenwelt OTP heißt.Also das ist eine Art Framework, um aktorbasierte Programmierungen zu machen.Also man denkt von Grund auf nur an Aktoren, die sich gegenseitig Nachrichten schicken.Das hat jetzt erstmal direkt nicht so viel mit funktional oder objektorientiertzu tun. Es gibt zum Beispiel auch in der JVM-Welt in Skala Acker,die ein ähnliches Modell machen.Mit Objekt orientiert und da das Enablen, das hat aus meiner Sicht,das habe ich auch lange gemacht, auch Probleme, weil die JVM nicht darauf ausgelegt ist.Und das ist der große Vorteil von Erlang aus meiner Sicht. Das ist,das ganze System ist von Grund auf aufgebaut, um ein Aktoren-System und auchwenig anderes zu unterstützen.Das fängt vom Debugging an, aber auch wie das ganze System startet,die Error-Trails und wie auch mit Messages und so weiter umgegangen wird.Es gibt auch Implementationen in anderen Sprachen, also ich bin jetzt neulichüber Ergo gestolpert, das ist quasi OTP in Go nachgebaut, auch eine interessante Entwicklung.Aber das würde ich mal sagen ist auch aus meiner Erfahrung das,was im Kern diese Nebenläufigkeit, aber jetzt kommt es auch die Parallelität sehr enabled,also sehr viel möglich macht, weil man halt Den State, den man hat,der in einem Akto gehalten wird, automatisch, den Zugriff darauf automatischserialisiert durch die Nachrichten, die reinkommen, die dann auch verarbeitet werden.Das erleichtert, wenn man es richtig baut, auch das Testen und so weiter.Das ist, glaube ich, der Kern und auch da die Sprache und das Ökosystem aufviel verzichtet, ist man sozusagen auch gezwungen, in bestimmten Arten und Weisen zu denken.Man denkt, wo hat man State, wo ist der in meiner Anwendung,Applikation verbaut? Und davon geht's los, weil das baut man in seine Aktorenrein oder Genserver, wie es in Erlang beziehungsweise Alexir genannt wird.Und darauf aufbauend baut man dann halt seine Anwendung.Das hat auch sehr viele Vorteile, wenn man Ressourcen hat, die von verschiedenenStellen gebraucht werden, dann kümmert sich ein spezieller Prozess nur um diese eine Ressource.Und Leute können anfragen, bekommen zweifelne Antwort, aber auch die Ressource,die hat für sich immer eine Ordnung, in der das kommt.Das heißt, man geht einer bestimmten Art von Race Condition aus dem Weg,wenn man nicht aufpasst, schafft man sich andere Probleme, wenn man 15 Aktorenhat, die sich in komplizierten Art und Weise Nachrichten schicken,kann das auch zu unvorhersehbaren Konstellationen führen, das stimmt auch.Aber erstmal grundsätzlich ist das ein Modell was auch für das was wir machensehr sehr gut passt und eine ganze Klasse an Fehlern erstmal ausschließt.Auch so ganz einfache Sachen wie Memory Management. Also du hast halt da deineAktoren, alles was da drauf gebaut wird stirbt zusammen mit dem Aktor.Das heißt wenn du so ein Request hast der reinkommt, Da macht er was für denSpieler oder was auch immer die App macht und dann stirbt der Prozess,nimmt alles Memory und so mit sich mit und vorbei ist es. Das heißt dann istdas alles vergessen. Wenn er crasht, ist nur das eine kaputt.Das sind einfach so Grundprinzipien, die da sehr, sehr helfen bei Systemen,die sehr parallel und auch nebenläufig arbeiten.
Tim Pritlove 1:06:22
Wie kam es denn zu dieser ganzen Orientierung auf Alyx hier bei VUGA für dieGameserver? Also was war denn da so der treibende Faktor und was wurde denn da früher verwendet?
Björn Reimer 1:06:34
Also früher, als wir, da hatten wir auch noch sehr sehr, wo wir sehr viele Spielehatten, sehr schnell und kurze Entwicklung,da hatten wir wirklich viele verschiedene Sprachen im Backend.Teile davon waren auch Erlang und damit haben wir für bestimmte Anwendungenauch gute Erfahrungen gemacht.Dann gab es auch Ruby, es gab auch andere Sprachen, es gab auch Scala und anderes und es kam am Ende da,so die guten Erfahrungen mit Ruby und mit Erlang waren halt in LXIR vereintund das haben wir uns dann halt damals angeguckt, das hat also A zu dem gepasst,was wir in der Firma konnten.Es hat aber auch unseren, so einpaar Schmerzen, die wir mit Erlang hatten befriedigt, aber auch mit Ruby.Also es ist auch so, dass in der LXC-Welt sehr, sehr viele Leute von Ruby,von Rails kommen, also auch sehr viel diesen Geist mitbringen,der auch teilweise sehr viel Gutes hat. Nicht alles, aber teilweise.Und dann war es einfach, von da an hat sich das bewährt. Also wir haben nurnoch gewartet, bis LXC 1.0 draußen war.Vorher haben wir da nichts mit wirklich gemacht, aber dann haben wir uns langsamran getestet und das war dann, hat von Anfang an gepasst.Und nach wie vor gibt es bei uns seitdem wir das machen auch wenig Suche nachAlternativen in anderen Sprachen und sowas, was es ja auch immer gerne gibt,dass man dann nach was anderem guckt.
Tim Pritlove 1:07:58
Und jetzt haben wir auch, also für… Also ihr sucht nicht, weil ihr keine Probleme damit habt?
Björn Reimer 1:08:03
Genau, mit der Sprache und dem Oexos System haben wir jetzt keine großen Schmerzen,also das löst alle Probleme und noch mehr, die wir haben.
roddi 1:08:11
Ihr habt den richtigen Nagel für den Hammer.
Björn Reimer 1:08:13
Ja, so kann man das natürlich sagen, also wenn wir andere Sachen machen würden,da gibt es viele Anwendungsbereiche, wo das nicht das Perfekte wäre, das stimmt natürlich.Aber ich, also vor allen Dingen auch der Bereich, der erweitert sich gerademit Alex hier. Also eine Sache, die wir jetzt haben, also wir haben auch sehrviele, ich nenne es mal Admin Interfaces.Also Interfaces, wo Leute, die irgendwas mit dem Spiel machen,mit den Backends interagieren, von uns intern, was mit den Servern machen wollenund dort, da benutzen wir seit einiger Zeit Liveview. Das ist so ein neues Paradigmader Webentwicklung, sage ich mal. Also so ein bisschen.Es hat ja angefangen mit Static Generated HTML, das war so das Klassik PHP wiewir es kennen, du hast auf eine Form geklickt oder einen Link und dann hat sichwas neu gerendert über Templates im Backend.Dann war das natürlich nicht dynamisch genug, wir wollten sehr viele Dinge tunund da ging es halt bis hin zu diesem Single Page App mit JavaScript,wo man quasi nur noch einen riesen Application lädt und Live View ist so einbisschen der Weg in der Mitte.Man muss dort, man rendert wieder Seiten im Backend und hat eine JavaScript-Komponenteim Client, die quasi die Diffs nur ins Frontend rendert.Das heißt, man hat quasi wieder ein Template im Backend, was man rendert,was man dynamisch updatet und dann hat man in diesem Framework ein Diff-System,was sich das HTML-Diff ausrechnet und das über Websockets an den Client pusht.Das ist ein sehr, sehr guter Mittelweg für einige Anwendungsbereiche,wo man dynamische und auch sich ständig updatende HTML Seiten haben will.Also man wird damit jetzt nicht Google Maps entwickeln oder sowas,aber sehr viele dynamische Sachen kann man halt besonders auch sehr schnell entwickeln.Dashboards zum Beispiel. Das haben wir massenweise und gerade halt auch schnellund auch dynamisch kann man da sehr viel und schnell machen und das ist auch so eine Sache,die wir getestet haben und das hat uns halt einen ganz neuen Horizont erschlossen,weil wir auch gerade im Backend halt immer, wir haben halt irgendwelche Frontendsgebaut, aber eigentlich wollten die Leute Backend machen und dann braucht mandiesen ganz anderen Mindset, da muss man erst eine Javascript Pipeline aufbauen,das ist ja auch eine ganz andere Sache.Das hat ja auch seine Eigenheiten, das Ökosystem, ich sag's mal so.Dann fängst du an da den State, also es gibt ja auch genug coole Anwendungen,die damit geschrieben werden, aber es hat halt auch Probleme,gerade wenn man einfach nur ein bisschen dynamisches Dashboard schreiben willund dafür eignet sich das halt perfekt, weil du halt dann auch wieder im Backendhast du für jede Website oder jeder View, der aufgebaut wird, einen Aktor im Backend,Der hält das virtuelle DOM fürdiesen einen User und da kannst du halt im Backend über Event und sowas,wie du das halt dann auch mal deine Applikation aufbaust, dieses virtuelle DOMupdaten und du hast dann halt das Live-Reframework, was dafür zuständig istoder was dann den kleinen Ansicht, was der Nutzer im Browser sieht, halt für dich updatet.Und das ist halt auch wieder sehr gut widergespiegelt in LX hier und der ganzen,ja man muss sagen in der Beam, also der Virtual Machine von Erlang mit diesemAktormodell und was das kann.Dazu ist natürlich in der ganzen Architektur von Erlang dieses Aufrechterhaltenvon tausenden, hunderttausende Millionen aktiven Netzwerkverbindungen so einbisschen so ein Heimspiel. Also das ist das was es kann.Und das heißt da kann man gerade diese Dinge auch mit abdecken und mittlerweilewird dieses Paradigme von Liveview auch von anderen Frameworks,also von anderen Sprachen auch benutzt, also in der Ruby Welt wurde sowas nachgebaut,es gibt mit Livewire auch sogar was von PHP, da gibt's eine lange Liste, in Go gibt's auch was.Und gerade bei Ruby, also sind die darüber gestolpert,dass halt zum Beispiel, dort kann nicht so mit Prozessen umgegangen werden,das funktioniert einfach nicht, das war auch tatsächlich eine der Motivationen von Chris McCord,also das ist der Gründer oder der Autor des großen Webframeworks Phoenix,der hat das probiert in Ruby zu bauen und ist dann gescheitert.Und dann führte eins zu anderem und Jahre später gab es dann halt Phoenix.Gab auch noch andere Gründe, aber das ist eine der Geschichten,die er erzählt. um mal diese Idee von Live.io umzusetzen, weil die Idee gabes schon viel, aber das...Man braucht so ein bisschen die Foundations von Alexia, um das wirklich gutund auch in großen Skalen umsetzen zu können.
Tim Pritlove 1:12:40
Also Live.io ist wirklich eine große Sache in dieser Alexia Welt.Also generell wenn man so in die Alexia Welt reinschaut, da hast du halt erstmalso die Sprache so in unison mit dem Erlangen Ökosystem,Das ist das, was da so generell erstmal die Foundation ist für das Grundinteresse.Das ist so das, was alle primär dahin zieht. Dass du diese Stabilität hast unddass du eben dieses Betriebssystem quasi in deiner Sprache hast.Dass du so eine konkrete Vorstellung hast von Prozessen und das sind alles soFirst Class Objekte in deiner ganzen Sprache sind.Aber dann das zweite große Ding ist halt dieses Phoenix Web Framework,was halt einfach das Entwickeln von Webseiten einfach super einfach macht.Also das hab sogar ich hingekriegt.Ich hab keine Ahnung von Webdevelopment, aber das ist einfach zu naheliegendund wenn man erstmal die anderen Prinzipien drin hat, dann ist das mehr oderweniger so ein Abfallprodukt.Also man kriegt einfache Webseiten sehr sehr einfach hin.Und dann dachte ich so, oh ja, dann gibt's ja noch dieses Liveview und das istjetzt bestimmt voll kompliziert und dann stellt man fest so,ne, gar nicht,das macht dann sogar noch komplexere Anwendungen sehr einfach,weil du auf einmal es nur noch quasi mit einem Aktionsort zu tun hast,also alles befindet sich auf dem Server und der Server hat einfach eine klareVorstellung davon, was auf dem Bildschirm auf der Webseite ist.Und ich weiß nicht, ich hab den Vergleich letztes mal schon gebracht,aber ich sag's nochmal, das ist im Prinzip so ein bisschen die Wiedergeburt des Unix-Terminals.Also so wie du früher unter Unix eine Anwendung gemacht hast,die so im Unix Betriebssystem Multi-User lief und das beste Beispiel ist...So wenn du immer guckst, okay, Programmiersprachen und Frameworks,was ist so die Standard-App, die so als erstes Beispiel geliefert wird,da hast du dann so jahrelang Taschenrechner gehabt, so mit Force und so weiter,bis das dann irgendwann nicht mehr ging, dann war's irgendwie die To-Do-App,das hält sich irgendwie auch noch bis in die Neuzeit.Und bei Liveview ist dann so immer so dieses, ah jetzt machen wir mal ein Multi-User-Chat.So ein Multi-User-Chat, das wirfst du so mal eben so aus der hohlen Hand.Du hast alles da, was du brauchst, diese ganze Kommunikation,mehrere User kommunizieren, jeder hat seinen eigenen View, alles updatet sichin Realtime, das ist so in Liveview ist das einfach, da musst du noch nichtmal groß drüber nachdenken, wenn du das halbwegs verstanden hast,um das da so hinzuwerfen.Und ich finde das sagt schon so einiges darüber aus auf welcher Komplexitätsebeneman hier überhaupt einsteigt,ohne dass es, also Komplexität im Sinne von des Ergebnisses,was du aber relativ einfach mit den Bordwerkzeugen angehen kannst und von dastartest du dann sozusagen in komplexere Welten rein und das ist wirklich einkomplett neues Paradigma.Man muss auch dazu sagen, es löst nicht alle Probleme von Web-Anwendungen,also wenn du, du hast ja schon gesagt, so Google Maps, also alles was so highlylocal interaction hat, ne, wo du so viel unmittelbare lokal anwendbare Eventshast, also direkt Objekte, ähm.Bewegen muss und viele Operationen hast, die halt so unmittelbar im Code desJavascript-Interpreters im Browser laufen,ohne jetzt Serverinteraktion zu haben, aber in dem Moment wo das was du siehstprimär eigentlich auf dem Server existiert und so ein shared state ist,Dann wird's wiederum sehr einfach mit Liveview solche Anwendungen zu machenund das kann man sich auf jeden Fall mal anschauen,das kann viele sehr komplexe Setups,wo man mit, ja jetzt brauchen wir hier so eine Single Webpage App und React und tralalala,damit das irgendwie alles eine gewisse Fluktuizität hat und dann müssen wirnoch ein Protokoll machen und dann haben wir noch unsere Datenbank und GraphQLund so weiter, um was relativ einfaches zu bauen.Und sowas kannst du mit Liveview eigentlich da beiseite fegen und sagen so nee scheiß drauf,das machen wir einfach alles im Server und diese schnellen Updates in der Webseite,die pushen wir halt einfach von hinten da rein und dann passt das schon.Also das ist schon eine interessante Welt die sich da auftut.
Björn Reimer 1:17:09
Und man muss kein Javascript schreiben. Also da war ich ja schon überzeugt.
Tim Pritlove 1:17:13
Das ist nicht das Beste.
roddi 1:17:14
Ich glaub an der Stelle könntest du sogar mich kriegen.
Tim Pritlove 1:17:19
Und was nicht heißt, dass du kein JavaScript zur Anwendung bringen kannst.Also in diesem LiveView Framework hast du halt so ein JavaScript Framework,in dem du einfach nur noch sagst, hier füge mal das JavaScript ein,was man braucht, um X zu machen, um irgendwas zu toggeln oder so.Und das wächst die ganze Zeit so an.Schade ist noch, dass man, wo es wirklich noch eine Grenze gibt,dass man noch nicht das so targeten kann, dass man sagen wir mal LXJ-Code richtigim Browser auch laufen lassen kann.In den Kommentaren gab es auch einen Verweis auf so ein Talk von F sharp über über F sharp,das ist so diese Microsoft Funktional Sprache die so in diesem C sharp dot net Ökosystem drin ist,also F sharp ist so zu C sharp so wie Scala zu Java sag ich mal ganz so in etwa ja in etwa.Und ich hab mir den Talk angeschaut, weil der wurde in den Kommentaren gepostetmit dem Hinweis der würde ja zeigen, dass man da auch mit objektorientiertenParadigmen irgendwie was anfangen kann.Ich hab mir den Talk angeschaut aber auch nur festgestellt,dass er eigentlich auch gesagt hat, ja ne wir machen nur Objektprogrammierung,wir machen aber nicht Objektorientierung, weil Objektorientierung ist nämlichMist und die Idee von Objekten und dann haben wir halt diese Dot-Syntax,die finden halt alle so toll.Und das ist halt auch der einzige Grund warum man das immer macht,weil die Leute es halt gewohnt sind eine gewisse Syntax zu sehen.Aber in diesem F-Sharp, deswegen erwähne ich das jetzt gerade,die haben nämlich die Möglichkeit, das heißt ich hab vergessen wie das dannheißt, quasi aus F-Sharp-Code unmittelbar JavaScript-Code zu erzeugen.
Björn Reimer 1:19:13
Ja, also es gibt sogar eine Implementation oder Versuch,also auch Beam in WebAssembly, also in den Browser laufen zu lassen,das hat jetzt gerade jemand, das von Scala, das gibt's auch schon seit Ewigkeiten,das gibt's in allen möglichen Varianten.Das weiß ich nicht, wie sehr das die Lösung ist, weil man muss ja dann,also meine Erfahrung zum Beispiel mit Scala.js war auch dann,sobald man in der Interaktion mit dem eigentlichen, mit den nativen APIs undverschiedenen anderen Art und Weisen kommt, wird es dann wieder sehr komplexund unintuitiv, weil man dann doch wieder,Ja, sich in fremde Umgebung begibt. Man hat dann halt eine Sprache,die komplett anders ist, ganz andere Paradigmen hat und trifft dann doch aufdieses am Ende die JavaScript Umgebung.Und es wird halt auch teuer und groß, was man da baut.Und so mit Zwang eine Sprache woanders laufen zu lassen, als wo sie gedachthat, also es mag dafür so Edge Cases geben, aber ich hab da noch wenig wirklichsinnvolles für gesehen, dass das am Ende funktioniert.
roddi 1:20:19
Ja vor allen Dingen so cross-kompilierte Sachen sind immer extrem schwer zu debuggen.Du schreibst Code in der einen Sprache und musst sie aber in der anderen Sprache debuggen.
Björn Reimer 1:20:29
Und dann ist es keine hundertprozentige gleiche Umgebung, also du schreibstdann Scala oder was auch immer dann in Javascript und dann gibt's irgendwelcheSachen, die dann doch anders funktionieren und dann willst du aufhören.Das hört sich auf Papier so schön an. Du schreibst Code, der überall gleich ist und dann,aber es ist in der Praxis, zumindest ist meine Erfahrung, ich hab damit auchnur ein bisschen rumgebastelt,war jetzt nicht sehr positiv und das mit,das ist auch mit Elixieren-Browser glaube ich ähnlich,da würde ich sogar im Zweifel eher dann sagen, wenn man so Accelerate,also im Client Accelerated Sachen machen will,würde ich dann eher das, was du meintest, diese JavaScript-Hooks in Liveviewnehmen zum Beispiel oder dann vielleicht auch TypeScript nehmen oder sowas,da gibt es ja mittlerweile auch schon Weiterentwicklungen, aber halt etwas,was mehr für das Ökosystem gedacht ist.Da kommt man glaube ich langfristig weiter, weil es dann halt auch die ganzenLibraries und alles drum dran gibt, die man dann braucht.Also man darf nicht unterschätzen, wie sehr man im Browser, also was unterschätzen,man muss halt ganz viel mit dem DOM, mit HTML interagieren und das ist schonkomplex, diese ganzen Funktionen und das macht halt nun mal Javascript oder TypeScript am besten.Ja also es ist so, es gibt halt no silver bullet, also das ist eine der Sachendie ich auch schmerzhaft lernen muss.
Tim Pritlove 1:21:51
Tja naja, auf jeden Fall lohnt sich das anzuschauen und falls ihr irgendwieAlexej Poamira in Berlin seid dann schaut doch mal im X-Heim rein,da gibt's auf jeden Fall Interesse.Ich könnte mir gerne auch eine Mail schreiben, vielleicht kriegen wir da janoch ein Treffen mal zustande, das fände ich ganz cool.
Björn Reimer 1:22:12
Also wir hatten schon so ein paar ad hoc mini Meetups oder so,also wo sie einfach Gespräche entwickelt haben darüber.
Tim Pritlove 1:22:20
Weil du hast ja auch im XR eine ganze Menge mit LX hier dann realisiert.
Björn Reimer 1:22:24
Oh ja, ja das ist auch so ein ganz anderes System, ich weiß nicht wie tief wirjetzt da reingehen wollen, das ist NERVS, das ist so die komplett andere Ecke,das ist für Embedded System.Da gibt es mittlerweile auch ein LXC Framework, was ich auch nur aus Spaß malausprobiert habe und das läuft auch ziemlich gut.Damit habe ich zum Beispiel das Türschließsystem gebaut für ein X-Hine,was soweit ich weiß auch mittlerweile andere Hackspaces benutzen.Im Endeffekt ist das nur eine Mini-Firmware für ein Pi, wo man halt quasi sichmit einem SSH-Key authentifiziert.Also du hast auf deiner App oder sonst, du hast halt einfach eine SSH App,die macht SSH Add und dann wirst du halt reingelassen, wenn du den richtigenKey hast oder also dein Key zugelassen wurde.Und das Gute daran ist, weil Alexi oder Erlang halt da ist, es läuft halt immer.Also es startet sich neu, wir haben davor irgendwelche Skripte mit Debian undsonst was da drauf gehabt und es ist immer irgendwie gecrashed.Und jetzt halt mit diesem Nerves, das ist glaube ich 20 Megabyte groß,das lädt sich einmal von der SD-Karte in Memory, läuft dann in Memory,holt sich dann noch so eine signierte Liste mit den Keys runter und dann läuftdas halt einfach. Und seitdem wir das haben, sind wir sehr glücklich.Geht's und das ist auch auf GitHub, das ist im X-Halm, GitHub kann ja gleichmal den Link da reinschmeißen.
Tim Pritlove 1:23:42
Ja das machen wir.
Björn Reimer 1:23:43
Not very much lines of code und da hat sich dann auch wieder ein anderer Aspektvon Erlang gezeigt, das ist halt wie du ja auch gesagt hast,das ist im Prinzip ein kleines Betriebssystem, das hat auch SSH implementiert,ich hab mir das auch mal vorher angeguckt, ob es auch abgehangen ist, ja ist es.Das heißt das hat eine eigene SSH Implementation die man da nutzen kann.Ist ein bisschen, muss man sichreinlesen, die API ist ein bisschen kompliziert sag ich mal aber es geht.
Tim Pritlove 1:24:09
Aber zu NERVs kann man vielleicht nochmal ein paar Worte sagen weil das istnämlich so eine der interessanten, von mehreren interessanten Entwicklungenin diesem ganzen Elixier Öko System ist um halt den Reach noch ein bisschen zu erweitern.Also da merkt man schon, dass über Phoenix, das Webframework und eben speziellauch über Livewire erweitert sich gerade der Einsatzrahmen doch erheblich.Also es dringt sozusagen in Bereiche vor, in die Erlang bislang überhaupt nicht reinkam.Und NERVS ist halt auch so ein Ding weil es eben quasi eine bequeme Runtimeeröffnet auf so Embedded Devices.Läuft ja nicht nur auf dem Pi sondern es läuft auch noch auf dem Beagleboneund anderen aber das sind im Wesentlichen so die Plattformen die unterstützt werden.Und wenn man sich das halt baut, dann sagt man halt im wesentlichen so halloich habe ein paar Versionen was auch immer drei vier so mach mir mal eine Firmwareund dann kompiliert er quasi ein komplettes Linux,Aber so total strip down auf die 20 MB, die du schon gesagt hast,also wirklich so das absolute super minimale Linux, was du benötigst,nur um eine Elixier, also eine Erlang Runtime auf dem System zu fahren.Brennt dir das dann sozusagen direkt in so ein Image und das schreibst du danneinfach auf eine SD-Karte,steckst rein, schaltest das Ding an und dann bootet der irgendwie da rein unddann kannst du da sofort irgendwie mit SSH drauf und kannst irgendwie deinenCode zum Laufen bringen,sagst aber hier ist meine App, die starte mal und dann läuft das so.Soweit so unbeeindruckend, das coole ist, dass es dann halt schon auch darumwiederum so ein Ökosystem gibt, wie zum Beispiel Nerves Hub,wo du dann so eine Software hast, wo alle deine Devices, also du hast jetztirgendwie ganz viele von diesen Dingern,Dann hast du immer das Problem, du willst die Firmware aktuell halten,du willst irgendwie gucken was machen die,laufen die gerade, was ist damit und so, liegen irgendwo alle irgendwo rum,haben zwar alle irgendwie Internet, aber überall SSH und gucken und was istdenn damit und sich eine Mail schreiben lassen und so weiter,da wirst du ja irgendwie bekloppt.Dann kannst du halt diesen Nerves Hub nehmen und dann können sich diese Gerätedort anmelden und du hast so einen Ort,eben diesen Hub, wo du all deine Devices siehst,du siehst was online ist, was offline ist und wenn du dann eine neue Firmware hast,dann wird die automatisch eingespielt, du kannst auch Firmware Updates überSSH einzeln einspielen,aber dieses ganze Management und dann wird's auf einmal interessant,man hat jetzt nicht vielleicht 50 Türen, die man so administrieren muss,aber man kann das natürlich für jeden Scheiß verwenden.Und dann hast du eben wieder diesen Vorteil von dem Erlang-System,dass es halt so super stabil ist und dass du einfach den Code so on the flyändern kannst, neue Firmware drauf, Software-Update.Zur Laufzeit musst du nicht wirklich was runterfahren der Code wird einfachausgetauscht und dann läuft das irgendwie weiter und du hast immer so allesso im Überblick und das ist irgendwie eine relativ starke Bewegung in diesemganzen LXDR Ökosystem und dann gibt's noch so ein paar andere Sachen auch fürandere User Interfaces,Scenic ist etwas was sich dann in diesen Embedded Devices auch so als User Interface,API anbietet, noch so ein paar andere Entwicklungen also da ist auf jeden Falleine ganze Menge am Laufen also wer da mit IoT rum baut findet da eine Menge.
Björn Reimer 1:27:37
Also das ist auch wirklich gerade ein interessanter Zeitpunkt im Elixir Ökosystem.Das ist jetzt schon wirklich mature, gerade mit Phoenix im Kern,dem Web Framework hat sich jetzt auch über die letzten Jahre wirklich sehr vielin die Breite entwickelt, neue Sachen, ein ganzes, ich glaube das Thema lassenwir vielleicht heute mal aus.Aber der ganze Machine Learning, da gibt es ein komplett eigenes System undMöglichkeiten Modelle und so weiter auch in LXI laufen zu lassen,das ist auch super interessant, da kann man auch sehr schön mit rumspielen,aber das ist glaube ich nochmal ein eigenes Thema.Das macht auf jeden Fall sehr viel Spaß und es ist auch schön zu sehen wie das in die Breite geht.
Tim Pritlove 1:28:19
Naja, wir kommen auf jeden Fall noch auf ein paar andere Hacker-Themen zu sprechen,aber wir kommen auch auf Machine Learning zu sprechen.
roddi 1:28:28
Moment mal, kannst du meinen Kopfhörer mal ein bisschen leiser machen?
Tim Pritlove 1:28:32
Leiser, aber sicher doch.Ja ich lade trotzdem mal das Thema ein und dann kümmer ich mich da drum,weil ich nach einem anderthalb Jahr nicht mehr weiß, welche Knöpfe ich drückenmuss, Tim drückt auf seinen Puls, wenn der Stream gleich weg ist.Genau ich übergebe mir mal an Ralf weil wir wollten ja jetzt mal die Diskussionnachholen die wir letztes mal nicht gemacht haben denn wir müssen ja jetzt malschauen ob der Untergang naht.
Ralf Stockmann 1:29:03
Oder die Erlösung.
Tim Pritlove 1:29:05
Oder die Erlösung. Oder irgendwas dazwischen. Ja was kommt denn jetzt einfach.Ja wir müssen über Chet-GPT reden und alles andere.
Ralf Stockmann 1:29:18
Ja in der Tat ist es mir ein Anliegen, um mal gleich die Latte hoch zu legen.Es ist glaube ich in der Tat überhaupt wirklich der Grund warum ich hier sitze.Weil als du mich gefragt hast so hm, Freakshow, wäre das nicht mal was?Wäre vom Vierteljahr meine Reaktion gewesen, oh anstrengend und arbeitet inArbeit aus und ob wir uns da vertragen und so weiter.Aber es geht einfach nicht mehr, weil wir müssen über AI und Chat-GPT und diesesganze Thema reden und vielleicht auf eine andere Art und Weise als es da draußen in 53.000,Blogbeiträgen und Postings und sonst wie passiert.Vielleicht kurz zu mir, wer spricht und warum maße ich mir an,jetzt überhaupt hier so ein Thema zu moderieren?Ich programmiere selber keine Machine Learning Modelle, wir haben aber in meinemReferat das, ich glaube, im deutschen Bibliothekswesen größte Drittmittelprojektzum Thema Machine Learning laufen, das ist BMBF finanziert.Und da bekomme ich natürlich dann doch so das eine oder andere mit.Und seit ChatGPT im November rausgekommen ist,beschäftige ich mich pro Tag, würde ich sagen,so netto ungefähr eine Stunde damit, in dem ich zum einen wirklich versuche,alles leer zu lesen, was irgendwo an einigermaßen relevanten Publikationen erscheint,an Meinungsbeiträgen, was auch immer, und probiere in der Tat auch viel und intensiv selber aus,um ein Gespür dafür zu kriegen, Was passiert da eigentlich gerade und was kannes und was kann es nicht und was würde das für uns alle bedeuten?Und vielleicht können wir erstmal so einen ganz kleinen Crashkurs machen so in Grundlagen.
Tim Pritlove 1:31:06
Bist du zahlender Kunde?
Ralf Stockmann 1:31:07
Da sprichst du in der Tat einen wunden Punkt an. Ich habe es mir quasi für die Sendung gekauft. Echt?
Tim Pritlove 1:31:14
Nur für die Sendung?
Ralf Stockmann 1:31:15
Naja, also nicht wirklich nur für die Sendung. Ich habe lange gezögert,weil ich das politisch eigentlich für das falsche Signal halte.Also ich warte eigentlich auf eine Open Source Implementierung eines Large Languages.
Tim Pritlove 1:31:27
Auch für die könnte man ja bezahlen.
Ralf Stockmann 1:31:28
Die würde ich dann auch sofort bezahlen.
Tim Pritlove 1:31:30
Achso.
Ralf Stockmann 1:31:31
Also ich habe Chat-GPT4 mir quasi jetzt geshoppt, um auch einfach die Unterschiede messen zu können.
Tim Pritlove 1:31:38
Das ist so mein zweiter AI Dienst für den ich Geld bezahle tatsächlich.Ich bin einer von denen und was ist mein erster AI Dienst, für den ich Geld bezahle?
Ralf Stockmann 1:31:48
Mit Journey?
Tim Pritlove 1:31:49
Ne.
roddi 1:31:50
Siri?
Ralf Stockmann 1:31:52
Indirekt ja. Dazu komm ich.
Björn Reimer 1:31:55
Ist das intelligent?
Tim Pritlove 1:31:57
Das ist die Frage. Ah ok.
Ralf Stockmann 1:32:01
Ne muss man überlegen.
Björn Reimer 1:32:04
Da schreibt jemand auf Phonic.
Tim Pritlove 1:32:05
Ja gut auf Phonic macht jetzt auch so ein bisschen auf AI, aber ist nicht indem eigentlichen Also, ja...Ich bin natürlich auch Aufonik Kunde und die benutzen mittlerweile auch AI aberdas war jetzt nicht initial der Grund bei Aufonik einzusteigen.Na, naheliegend. Deep L.
Ralf Stockmann 1:32:28
Bezahlst du? Ja. Okay. Weil du irgendwie über die API das Zeichenlimit irgendwie brauchst oder?
Tim Pritlove 1:32:34
Weil ich zum Beispiel sehr viel ukrainische Webseiten nachschlage und es gibt nicht so viel,was ukrainisch kann und überhaupt so lange Texte,also gerade so Artikel in fremder Sprache, wo ich einfach mal wissen will,was geht ab so und dann hast du hier mal bulgarisch und da mal irgendwie komplexesspanisch und pipapo und Deep L ist wirklich fantastisch.Und es hilft einem halt auch sehr, auch wenn das jetzt nicht mein Daily Use Case ist,aber wenn man halt auch mal wirklich was formuliert und nach guten Übersetzungen sucht,entweder ins Deutsche oder eben auch in eine andere Sprache,dann ist es halt mit DeepL dann doch sehr einfach dann auch so Varianten zufinden, dass du auch wirklich genau den Punkt hast und so.Also das Lohn ist, ich hab da jetzt keinen Gewinn dabei, Aber bei Chat GPT habich nicht lange zögern müssen, weil ich halt mit diesem 3.5,schon verdammt interessante Ergebnisse hatte und dann als die Vierer im Angebotwar und quasi nur über den Bezahlzugang zu erreichen war,dass ich mir so scheiß drauf irgendwie, ich brauch das jetzt und bereue auchbisher nix, weil es für mich die bessere Suchmaschine geworden ist.
Ralf Stockmann 1:33:56
Der Unterschied ist schon dramatisch. Also kurz zu DeepL, den liebe ich in derTat auch seit Stunde eins.Ich bin noch nie da an die Bezahlschranke gestoßen, dass ich also irgendwasdavon wollte, was mit der kostenlosen Version nicht gegangen wäre.Was ich insbesondere empfehlen kann, guckt euch das mal an, wenn ihr den Dienstauch ab und zu mal nutzt, der hat jetzt so einen Modus, du gibst dann von dirirgendwie formulierten englischen Text rein, mach mir den in noch besseres Englisch.Das mag ich sehr gerne, so eine Grammatiküberarbeitungsfunktion in DeepL.Das ist so auf der Startseite so ein bisschen nach unten in die Mitte gescrollt.
Björn Reimer 1:34:29
Ist das Premium oder ist das?
Ralf Stockmann 1:34:31
Ne das ist auch, kann man auch umsonst nutzen. Das ist eine Sache die ich wirklichfast noch häufiger nutze als die, genau besser schreiben mit DeepL Write.Da gibst du also links einen englischen Text rein und dann kriegst du Varianten.Im Englischen ist alles kürzer, allesprägnanter, als du es eigentlich im Deutsch-Englisch schreiben würdest.Das nochmal so als Tipp, feine Sache, aber auch das kann man sich natürlichvon ChatGBT auch gut schreiben.Nee, also bei ChatGBT habe ich lange gezögert, weil eigentlich will ich denen kein Geld geben.Das war so jetzt überhaupt nicht die Geldfrage an sich, weil ich gebe für soviel Quatsch irgendwie monatlich Geld aus, da wäre das noch nicht der Punkt gewesen.Aber auf der anderen Seite bin ich da jetzt wirklich so in der Phase,okay wie soll ich meinen Kindern der einst erzählen, dass ich da nicht irgendwie,wo warst du als GPT 4 raus kam.Und alles was ich bisher damit so an Erfahrung gesammelt habe bestärkt michdarin, dass der Sprung von 3,5 auf 4 ist schon erstaunlich. Ich bring gleich ein paar Beispiele.Damit sind wir auch schon so ein bisschen in der Historie. Also das GPT kommtjetzt nicht irgendwie so aus dem Nichts, sondern das ist bekanntlich jetzt gerade schon Version 4.Man kann sich da auch die Historie angucken. 2017 ist das Ganze gestartet mitden verschiedenen Versionen und das was halt im Wesentlichen immer gesteigertwurde, war so die Anzahl an verarbeiteten und gespeicherten Informationen.Und die Grundlogik ist halt eigentlich relativ simpel, nämlich es geht nur um Text.GWT 4 kann jetzt auch Bilder, aber das würde ich sagen, klammern wir heute malganz aus, weil das ist auch mit Stable Diffusion und Midjourney noch mal einganz eigenes Rabbit Hole, in das wir, glaube ich, gerne mal in einer anderenFolge nochmal absteigen können, aber heute müssen wir uns, glaube ich,ein bisschen komprimieren, was das angeht.Also es geht um Text und es werden irrsinnige Mengen an Text halt analysiert,in Tokens zerlegt und dann wird quasi in einem Selbstlernprozess Prozess mussalso ein neuronales Netz lernen, Lückentexte aufzufüllen.Das heißt also, man nimmt irgendeinen Text, der schon da ist,der ist dann auch Ground Truth, das ist also das, wo man hin will,und man nimmt in der Mitte ein Wort raus und die KI muss raten,welches Wort da wohl eigentlich reingehört. Und das macht sie immer und immerund immer und immer wieder.Dann habe ich erstmal so ein Grundtraining und ein Grundverständnis davon,wie quasi Sprache funktioniert und mit welcher Wahrscheinlichkeit das nächsteein spezielles Wort ist, von mehreren, die natürlich immer zur Auswahl stehen.Und dieses Grundmodell wird dann nochmal sehr aufwendig und das ist dann quasijetzt der eigentliche Feenstaub, den JET-GBT dort dann drauflegt oder GPT-4.Wer dann nochmal wirklich händisch mit in der Tat hauptsächlich Arbeitskräftenin Afrika angeworbenen und speziell trainierten,das kann man sich auch alles ganz gut durchlesen, was das wieder für Problemealles impliziert, dann nochmal wirklich monatelang handgetunt.Ist jetzt Antwort A besser oder ist Antwort B besser?Und das, was am Ende bei ihm steht, ist nicht irgendwie eine Abbildung der Weltoder irgendwie ein Logiksystem oder sowas wie Wolfram Alpha,wo also irgendwo quasi so Logik-Patterns oder Strukturen hinterlegt sind,sondern es ist einfach ein riesiges, großes neuronales Netz von Wortwahrscheinlichkeiten.Und was dieses System dann halt tut, ist, dass es auf Fragen oder Kommandosantwortet. Man tippt Text rein und bekommt halt vom System eine Antwort.Und so mein Aha-Erlebnis hatteich in der Tat wirklich dann bei einer Weihnachtsfeier letzten Jahres,wo ich mich dann halt mit einem von unseren promovierten MLern ein bisschenunterhalten habe und der hat den Satz gesagt,er fände es höchst verwirrend, was für fantastische Ergebnisse mit einem sosimplen Ansatz zustande kommen.Weil dort eben nicht irgendwelche Entitäten modelliert werden,wie funktioniert die Welt, was ist ein Auto, was ist irgendwie eine Person,was ist die Weltgeschichte, das ist quasi das exakte Gegenteil von dem,was wir so im Bibliothekswesen immer versucht haben, Semantic Web irgendwie aufzubauen,so was sind die Bedeutungen, ja Wikidata, wir strukturieren irgendwie die Weltin Datenpakete, das ist das Gegenteil davon, man sagt einfach hier Well,hier System, da sind alle Texte, die in der Menschheit jemals geschrieben worden sind.Welche genau in das Training reinfließen ist da nicht so hundertprozentig klar.Ich werfe mal einen Link rein, das zumindest eine ganz gute Annäherung ist vondem worauf das textmäßig eigentlich so basiert.Aber mehr ist da eigentlich nicht. Da fragt man sich schon so,woher kommt das jetzt? Warum kann diese KI trotzdem so souverän und fantastischirgendwie auf Dinge antworten, obwohl sie doch von gar nichts irgendwie eine Ahnung hat.Und da gibt es halt jetzt, finde ich, so einen Grundwiderspruch,dass nämlich die Kritiker und Zweifler und Sorgenträger halt sagen,das ist ja alles nur Statistik und das ist ja alles nur irgendwie halt Wortstatistik,da ist ja jetzt gar kein Geist oder Sinn oder Verantwortungsgefühl oder irgendwas dahinter.Und dafür kann es dann aber irgendwie dann doch ganz erstaunlich viel.Ich weiß nicht, habt ihr diesen Begriff von Stochastic Parrot?Ist der euch irgendwie über den Weg gelaufen? Also es gibt einfach so ein paarKampfbegriffe, die jetzt soauch in der Twitter und Mastodon Debatte immer wieder hochgezogen werden.
Tim Pritlove 1:39:57
Also der Begriff Papagei fällt generell viel im Zusammenhang mit Stochastik.Hab ich jetzt noch nicht so gelesen, aber ja im Prinzip ist es ja genau das.
Ralf Stockmann 1:40:04
Genau das ist ein Paper das ist sogar schon relativ alt. Können wir auch malin den Chat reinwerfen. Und das ist so ein bisschen.Mach mal. Ja gucke mal eben. Also erstmal werfen wir den Link rein wo man guckenkann was ist alles in das Lernmodell reingeflogen.Das ist der hier.
Tim Pritlove 1:40:27
Nur was im Chat landet, landet auch in den Shownotes.Aber nicht alles was im Chat landet, landet in den Show-Notes.
Ralf Stockmann 1:40:45
So das ist jetzt hier der untere Artikel,das ist das Paper, das kann man sich wirklich mal durchlesen,das sind glaube ich so 15, 20 Seiten.Das ist auch schon mal eine Leistung ja.
roddi 1:41:12
Emojis for the win.
Ralf Stockmann 1:41:15
Also wir sehen hier publiziert, 1. März 2021, das war so deutlich vor Chat-GBT.
Tim Pritlove 1:41:22
Aber nicht vor GBT, sondern GBT2 und so weiter gab's ja schon.
Ralf Stockmann 1:41:27
GBT2, 3 gab's schon. Und der Punkt, den sie machen, kann man auch im Abstractschon sehen, würde ich sagen, ich wiederhole mich, ist goldrichtig.Sie sagen nämlich, okay, durch die ganzen Texte, die da reingegeben werden,werden auch die ganzen Vorurteile und werden die ganzen Stereotypen,die sich in diesen Texten abbilden, alle mit reingezogen und Wertemuster.Und Texte und Bücher sind nun mal im Wesentlichen von weißen privilegiertenMännern geschrieben worden, in nicht unerheblichem Maße.Und viele Bereiche dessen, was so die WeltTM ausmacht, ist dort eben nicht abgebildetund das ist eine Gefahr und darüber müssen wir reden.Alles total richtig, unterschreibe ich alles, aber das hat nichts mit einem Papageien zu tun.Versuchen halt über die Überschrift jetzt so eine Diffamierung eines von Leistungendarüber, um halt irgendwie ihr Paper wissenschaftlich irgendwie zu positionieren.Das zweite was man häufig hört ist mansplaining is a service.Habt ihr das schon mal gehört?
roddi 1:42:27
Aber es beschreibt es sehr gut.
Ralf Stockmann 1:42:30
Siehst du?
roddi 1:42:31
Nein.
Ralf Stockmann 1:42:33
Das wird sehr bestimmt falsch sein. Das ist sehr bestimmt falsch sein.Mensplaining ist hoffentlich bekannt. Das Breitbeinige, wozu wir hier in derMetaebene übrigens auf unseren Stühlen alle gezwungen werden.Das männliche, breitbeinige, vielleicht in der U-Bahn, sitzende,so ich erzähle euch jetzt mal wie die Welt funktioniert und besonders gerneerzähle ich das noch Frauen.Also mansplaining, ja auch wenn die es überhaupt gar nicht wissen wollen unddann auf seiner Meinung beharren, selbst wenn man es mit einer Expertin fürgenau das Feld zu tun hat, na ich hab aber trotzdem recht und ich kann es jagerne deine Meinung haben.So und in der Tat, so in der November Dezember Release, also in der ersten vonChat-GPT 3.5 zu dem Zeitpunkt, war diese Attitüde durchaus spürbar.Das heißt also, wenn Chat-GPT da offensichtlich einen Unfug geschrieben hatund man dann ihm freundlich darauf hingewiesen hat,hatte ich also wirklich etliche harte Debatten so, nein, nein,das ist auf jeden Fall so und sie übersehen X, Y und sowas und Quatsch bleibtaber nunmal Quatsch, egal wie er sich dagegen gewährt hat.Das haben die meiner Wahrnehmung nach mit ihrer Februar Release fast nahezuvollständig abgeschaltet, also behoben bekommen.Also im Gegenteil, wenn man jetzt Fehler anmahnt, haben sie irgendwas an ihreninternen Routen geändert, dass man jetzt sehr sehr viele Antworten bekommt.Oh ja, vielen Dank für die Korrektur, ich hab nochmal nachgeschaut,da haben sie natürlich recht und ich hätte berücksichtigen müssen, dass.
Tim Pritlove 1:44:03
Das heißt also da ist innerhalb von wenigen Wochen quasi,ist dort schon irgendwo eine Evolution wieder gewesen aufgrund von einem Kritikpunkt und dieses so,wobei man dazu sagen muss, Servil ja, so und es ist auch schon ein bisschenanstrengend und wenn man ihn drum bittet nicht mehr so niederknien zu sein, Dann passieren Dinge.Er macht es trotzdem und ich kann auch gleich nochmal ein schönes Beispiel liefern,wo Chat.GPT für mich auch die neue Version 4 komplett gescheitert ist an einem sehr trivialen Ding.Sollten wir vielleicht auch nochmal drüber reden, wofür es funktioniert,wofür es nicht funktioniert.Ja ja, Mansplaining ist es auch.
Ralf Stockmann 1:44:54
Danke für den Chat, das in der U-Bahn ist Manspreading, das ist bei mir semantischnahe beieinander verankert, aber es nennt sich das gleiche, also das ist dasmentale Manspreading, bekommt aber auch Mansplaining in der U-Bahn, wenn man genau zuhört.Aber danke für die Präzisierung.Genau das ist mich jetzt quasi das dritte Missgrundverständnis was.Also ja es gibt dieses Mansplaining.Mit der Vierer glaube ich viel weniger als vorher. Trotzdem gibt es das.Das heißt ja aber nicht, dass man nicht trotzdem zu 80 Prozent nicht MansplainingAntworten dort rauslocken kann, die eben korrekt sind.Und ich bin immer etwas zurückhaltend so diese Fail Antworten so in den Vordergrundzu rücken und das was schon gut funktioniert dem gegenüber irgendwie so nach hinten zu schieben.Wir können jetzt mal ein paar praktische Beispiele uns mal so zuwerfen.Das, was ich gemacht habe, ist, wir haben ein neues Sachgebiet,was wir bei uns an der Stabi einrichten wollen, bei mir.Und im Wissenschaftsbereich oder in den ganzen Kulturdingen sind halt Akronymetotal hip, immer noch. Das heißt also du hast irgendwie eine Abkürzung und jederBuchstabe steht für etwas.Was ich halt gemacht habe ist, ich habe JettGPT beschrieben,was dieses Sachgebiet macht und habe gesagt, jetzt schreibt mir nochmal zehnAkronyme dafür und löst die auf, wie ich dieses Sachgebiet nennen soll.Und das macht er dann. Und zwei bis drei davon waren schon richtig gut auf den ersten.
Tim Pritlove 1:46:18
Das könnte die Raumfahrt retten, weil die Raumfahrt will auch immer geile Akrobenhaben, aber die Auflösungen sind teilweise haarsträumend.
Ralf Stockmann 1:46:28
Naja und so richtig glücklich war ich aber noch nicht so und was machst du halt?Du sagst dann halt gib mir mal noch zehn.So und dabei bekomme ich schon so einen leichten Stich in der Magengrube,weil das ist doofe Arbeit.So das heißt also hier ist schon, findet bei mir selber schon so eine Projektionstatt so, oh mein Gott diese arme KI muss sich jetzt mit so einem blöden Job hier rumärgern.Nicht wahr oder? Machs bitte trotzdem. So und dann kriegst du halt die nächsten20 und dann denkst du dir so, ach was soll der Geiz.So Achtung gib mir mal noch 50, bezieh die 20 die du schon hattest mit ein undschreib zu jedem noch einen kurzen Abschnitt und rank die ganzen in wo du selbermeinst was vom besten zum schlechtesten und schreib noch einen kurzen Kommentardazu warum du denkst, dass es auf dieser Ranking Position richtig ist.Fantastisch gelöste Aufgabe. Was ich dafür für eine Werbeagentur für Geld drübergeschoben hätte für diesen Schritt und dann zu sagen das ist alles Mansplainingund das ist alles nur irgendwie ein Papagei der irgendwas nachplappert.Ja, diese Probleme gibt es, aber ihr müsst auch wirklich mal schauen,was auf der anderen Seite schon für eine Komplexität und für eine Effizienzund was das für eine Kreativmaschine ist.So und wenn man sich die Akronyme anguckt, würde ich sagen, so ein Drittel davonhat gar nicht funktioniert. Das war überhaupt dann gar nicht die Auflösung der Buchstaben.Ist ja aber egal, ich brauche am Ende ja nur einen.Das heißt also, hier kommen wir plötzlich auch auf eine Ebene,dadurch dass die Queries quasi so billig sind, jetzt die Energiediskussion malweg, das wird auch alles lokal auf unseren iPhones laufen in zwei, drei Jahren.
Tim Pritlove 1:47:59
So billig ist das nicht, für meine 20 Dollar kriege ich nur 25 Abfragen in dreiStunden. Da muss ich wieder warten.
Ralf Stockmann 1:48:06
Ja das wird sich lösen, also da kann man wirklich gucken,wie gesagt die Debatte führen wir heute nicht, aber im Imaging Bereich,wenn du dir anguckst, Table Diffusion läuft jetzt halt wirklich,also quasi mit Journey artiger Dienst, nicht ganz auf dem Niveau aber fast,läuft lokal auf meinem Iphone in der Neural Engine.Da gehe ich nicht mehr auf irgendeinen Server irgendwo hin, sondern solangeich nur Strom habe, kann ich dort lokal genau die Sachen machen, das wird mit den LLMs.
Tim Pritlove 1:48:34
Läuft der auf dem Mac auch auf den Neuroengine jetzt? Herz.Ich krieg immer nur scheiß Bilder bei Stable Diffusion.
Ralf Stockmann 1:48:40
Wir machen da mal eine Sonderfolge dazu, weil da bin ich wirklich ganz gut drin.
Tim Pritlove 1:48:43
Genau Bilder in Podcasts das ist überhaupt das Beste.
Ralf Stockmann 1:48:46
Ja dann kriegen wir dich vielleicht auch dazu mal Kapitelbilder zu machen.
Tim Pritlove 1:48:51
Also wenn das hinhaut, dass ich wirklich sage ich brauche jetzt hier ein schönesKapitelbild für meinen Dingsbums, wo ich sonst nix habe, dann kann man darübernachdenken aber bisher wäre mir das echt zu viel Arbeit.
Ralf Stockmann 1:49:04
Schauen wir mal, hast du Transkript reingegessen und da kommt das Kapitelbild.
Tim Pritlove 1:49:07
Ja Transkript reingegessen habeich schon probiert aber eben sind die Transkripte zu lang, wer meckert da?
roddi 1:49:11
Pass auf was du ihm genau sagst was er tun soll, mach mir mal ein Kapitelbildfür mein Dingsbums, ich weiß nicht so genau ob das.
Tim Pritlove 1:49:20
Naja das ist ja der neue Job, die neue Jobdescription heutzutage,also immer wieder gibt's neue Berufe und du weißt was jetzt so der AI Beruf ist, man ist jetzt was?Prompt Designer. Das ist jetzt sozusagen, das ist dann die nächste Stufe oder Prompt Wizard.Prompt Architekt. Ja das kommt noch, das kommt noch, Chief Executive Prompter.
Ralf Stockmann 1:49:54
Dahinter steckt ja aber so hinter diesem Prompt Engineering steckt ja genauein Mechanismus, der mich völligkalt erwischt hat, dass das geht und zwar dieses sogenannte Priming.Das heißt also, was ich eben beschrieben habe, diese, oder jetzt Chat-GBT isttrainiert auf einem Text-Korpus aus dem Jahr 2000, der am Jahr 2021 stoppt.So alles danach kennt es quasi nicht.Und jetzt kann man aber halt jetzt hier und heute mit ihm reden und es gibteben zwei Dinge, die wirklich anders sind als alles, was man vorher irgendwieim KI-Bereich hatte. hatte. Das erste ist Persistenz.Das heißt, man hat eben eine Unterhaltung, wo ich auf den ganzen bisherigenVerlauf der Unterhaltung voll rekurrieren kann.
Tim Pritlove 1:50:38
Im Rahmen dessen, was an Speicher dafür freigestellt ist, was so viel nicht ist.
Ralf Stockmann 1:50:42
Was so viel nicht ist, aber so eine Session, quasi so eine Chat Session,da hab ich es noch nicht geschafft, die jetzt quasi auszureizen an der Stelle.Und das ist halt so diametral anders als das, was bei Siri passiert,kommen wir ein bisschen später noch zu, zu ChatGBT und Kinder.Bei Siri fängst du immer wieder bei Null an, bei jedem einzelnen Kommando.Also Siri erzählt dir irgendwie Quatsch und du sagst nein, nicht so,sondern anders und sie lernt halt irgendwie überhaupt nichts dazu.
Tim Pritlove 1:51:08
Das hab ich für dich im Internet gefunden.
roddi 1:51:13
Und dann findet sie noch nicht mal was sinnvolles.
Tim Pritlove 1:51:15
Nein das ist zum kotzen.
Ralf Stockmann 1:51:17
Wir kommen gleich noch dazu.
Tim Pritlove 1:51:19
Ja das ist die richtige Berufsbezeichnung. AI Promptmaster.Drunter geht's schon gar nicht mehr.
roddi 1:51:27
Das klingt aber wie so eine Kiste aus China die man bestellen kann für 5 Euro. Garley Express.
Ralf Stockmann 1:51:34
So und die Frage ist halt so wie funktioniert das eigentlich?Dass man plötzlich so ein echtes Gespräch führen kann und eine Persistenz derArgumente auch wirklich hat?Weil du kannst also sagen, guck dir nochmal deine Antwort von vor zwei Minutenan, ist nicht vielleicht XY stattdessen.Und das reagiert absolut souverän darauf. Und ich hab das einfach mal Chat-GPTselber gefragt und die Antwort ist relativ simpel, quasi mit jeder neuen Querywird halt alles was du vorher geschickt hast quasi als Text-Korpus auch im Hintergrund mitgeschickt.Also jetzt etwas vereinfacht gesagt, in Wahrheit ist es schon wieder in Tokenszerlegt und nochmal etwas anders abgespeichert,aber der Kontext wird halt mit jedem größer, aber der bleibt immer stabil unddas wird immer mit hingegeben, das heißt also unter Berücksichtigung von.So und daraus leitet sich jetzt aus dieser Persistenz, dass sich also obwohldas Modell selber statisch ist, ich quasi immer wieder was oben drauf setzeund die Konversation erhalten bleibt, kannst du halt dann diese sogenannte Priming umsetzen.Das heißt, dass du schreiben kannst, so du bist jetzt ein 5-Jähriger,erkläre mal die Handlung von Star Wars 1 und zwar so wie es ein 5-Jähriger tunwürde und dann versetzt du eben Chat-KPT in so einen Modus,der versucht dann also wie ein Theater-Schauspieler das möglichst authentischnachzuahmen aufgrund dessen was er halt in seinem neuronalen Netz als was sindso die Kommunikationswege eines 5-Jährigen und so der Wissensschatz und dann fängt der an,das entsprechend reinzuschreiben und das hat große Auswirkungen darauf, wie gut die.Qualität von Antworten ist, wenn man einen Priming davor einsetzt.Also Priming heißt so, ich versetze dich erst in einen Zustand und dann agierstdu in den darauf folgenden Kommunikation unter dem Eindruck dessen,in was für einen Priming ich dich gesetzt habe.Und da wo ich das zum ersten Mal auf YouTube im Einsatz gesehen habe,ist das war hier bei der Firma von meiner Frau, sehr nett.Einer der Kollegen hat das mal wirklich dann live vorgeführt in einer in derPräsentation, wo es darum ging, zähl Chat-QPT, zähl mal die Sicherheitsregularien für XY auf.Und dann kam eine Antwort raus und die war zu 90 Prozent Quatsch.Das stimmte einfach nicht. Man hatte denselben Satz gesagt mit dem davor.Achtung, du bist jetzt Sicherheitsexperte für Thema XY.Führe bitte die Regularien für XY auf. Und dann kriegst du plötzlich eine Antwort,die sehr sehr signifikant besser war, im Sinne von zu 80% korrekt und noch zu 20% Quatsch.Sie hatte immer noch 20% Quatsch, aber alleine durch dieses Priming,du agierst jetzt in der Rolle von, fühlte sich also jetzt hier Chat-GPT gemüßigtbeispielsweise halt irgendwo wissenschaftliche Quellen ranzuziehen und zu zitieren und zu gucken,okay, was sind jetzt irgendwie denn wirklich Gesetzestexte zu dem Thema oderwas sind jetzt irgendwelche RFCs oder sowas.Es hatte also eine ganz sofort spontan ersichtlich komplett andere Qualität.Und dieses Priming ist etwas, was ich nicht für möglich gehalten hätte,dass das technisch funktioniert.Ich habe vor, ich glaube, sieben Jahren, acht Jahren oder sowas,mit MS Pro mal eine Keynote gehalten für eine Digital Humanities Tagung.Und da war so eine der Dinge auch KI und wie das eigentlich weitergehen wird.Und da hatten wir so als ein Modell, von dem wir denken, dass wir es noch erlebenwerden, den Modus, schreibe eine Novelle im Stil von Bertolt Brecht zum Thema Internet.So war es also. Tu so, als seist du Bertolt Brecht und schreibe halt jetzt irgendwie ein Drama dazu.Und da dachte ich so, ach, so in 40, 50 Jahren, vielleicht habe ich Glück.So das geht, das ist da.Das war eine der Sachen die ich in meiner ersten Nacht mit ChetGPT gemacht habe.Achtung du bist jetzt Berthold Brecht, schreibe ein Streitgespräch zwischendir und Elon Musk über den Untergang von Twitter.Das war ein total schöner Text, der da rausgefallen ist, weil er so brecht danneben mit der Arbeiterklasse und der Unterdrückung und die Freiheit und so weiter.Und Musk halt, was hatte ich denn, das zweite Priming, was ich da noch reingesetzthatte und Elon Musk agiert auf dem Niveau eines Fünfjährigen,das war ein besonders schöner Dialog.Du kannst natürlich auch beliebig viele dieser Primings ineinander schachtelnund quasi aufeinander irgendwie clashen lassen und wo ich dann wirklich sold war,war als ich den Prompt hatte, schreib einen Sketch.Im Stil von Monty Python mit Mastodon und Twitter in den Hauptrollen.Ja und den Text hab ich dann auch mal gepostet, kommt demnächst glaube ich sogarin dem Buch raus, der ist also wirklich Gold.Ja also wo dann irgendwie aus einem normalen Kaffeehaus Debatte zwischen den beiden,das dann so völlig in so einer paradoxen Intervention, Wird dann in ein MittelalterSzenario raus gebrochen und dann tritt ein Ritter auf und der hat den NamenSir Tweet-A-Lot und als ich wirklich gelesen habe,Sir Tweet-A-Lot, war mir klar, die Welt wird nicht so bleiben wie sie ist.Und das ganz offensichtlich passiert da irgendwie was und meine Wahrnehmungist, dass gerade eine Menge Rückzugsgefechte irgendwie passieren seitens derKI Kritiker im Sinne von womit haben wir es hier eigentlich jetzt wirklich zu tun.Also der Klassiker war ja eigentlich immer der Turing Test, den wir 50 Jahrevor uns her geschoben haben. Also dieses klassische ich unterhalte mich aufder anderen Seite über eine Texteingabe mit irgendetwas und muss rausfindenist das jetzt ein Mensch auf der anderen Seite oder ist das eine Maschine.Und 50 Jahre lang haben wir da gesessen und es war innerhalb von 20 Sekundenimmer klar, was so auf der anderen Seite ist. Das Thema ist einfach mal gegessen.Also für 99% der Menschen besteht Chat-GPT4, den Turing-Test so tiefenentspannt.Es ist dann eher auffällig, dass es zu gut ist. Das ist aber eine sehr schlaue,eloquente, was auch immer Person. Du musst erstmal jemand anders finden,der auf dem Niveau überhaupt interagieren kann.
Tim Pritlove 1:57:48
Populäre Tweets sind auch gerade so. Hier sind vier AI-generierte Bilder,aber vielleicht zwei auch nicht. Welche sind echt und welche nicht und so. Da wird's schwierig.
Ralf Stockmann 1:57:58
So, also diese Grenze ist mal gefallen, wurde aber gar nicht groß thematisiert, ja.Das erinnert mich so ein bisschen, ihr werdet euch erinnern,wo die ersten KIs im Schach gewonnen haben.Und dann hieß es, ja gut Schach, darauf optimieren sie ja auch seit 20 Jahren,aber Go, jetzt kommt Go, das wird 100 Jahre dauern. Sondern hat es anderthalb Jahre gedauert.Und plötzlich war der Go-Master besiegt. Und genau solche Rückzugsgefechte seheich jetzt also auch. Also Touring-Test ist nicht mehr und jetzt wird quasi im Wochenende.
Tim Pritlove 1:58:28
Gab es nicht vor kurzem jetzt so einen neuen Go-Spieler, der tatsächlich irgendwiewieder die AI geschlagen hat?
Ralf Stockmann 1:58:35
Die haben die aktuell beste Go KI wieder so,wie sagt man, nicht deployed,sondern wenn man sich da reinhackt und quasi exploitet genau und haben quasi so ein Vektor gefunden,wo du sie dann wieder reinlegen kannst, aber das wird nicht lange halten,das wird dann halt gepatcht und dann ist es in einem Monat, das haben sich allemal drüber gefreut, aber das.
Tim Pritlove 1:59:02
Gibt sie noch die Ritze in der Matrix?
Björn Reimer 1:59:04
Es gibt aber auch sehr viel Hype, also es wird gerade an alles und jedem AI,also wo früher Krypto stand steht jetzt AI.
Ralf Stockmann 1:59:12
Ja das ist schlimm.
Björn Reimer 1:59:13
Also das macht es halt auch schwer, aber ich gebe dir schon recht,das ist sehr viel mehr Substanz, also deutlich mehr Substanz.Aber ja, also man muss da schon differenzieren was das alles ist,also es wird sehr viel und alles überall versprochen und nicht alles geht.Aber auch bei uns ist das natürlich ein riesiges Thema,also bei uns ist das Thema generieren von Spiele,Assets und so weiter, also wir werden sehr viel Aufwand darin den Inhalt vonSpielen zu erzeugen, also diese virtuellen Assets und du kannst halt heute sagengenerate me 3D model of an octopus und das geht.Und da ist besonders auch dieses Priming interessant, also das darf vielleichtnoch ein bisschen anders, aber man kann halt sich sowas wie Stable Diffusion oder so nehmen.Und dann mit bestimmten Algorithmen halt mit einer eigenen CI oder von einemSpiel den Artstyle halt drauf trainieren und dann halt entsprechende Modelle entwickeln,die dann im Artstil oder in einer bestimmten Sache das halt entwickeln, das ist übrigens eine,ich hatte eine, das ist auch mal eine sehr gute Idee für irgendwann mal einTheme für einen Kongress oder so,dass man einfach mal so ein Modell macht, was dann in einem bestimmten Stil was generiert,also das sind alles, Das sind große Themen und das ist auch nicht nur Art,das ist auch Storywriting, was wir auch viel machen, natürlich auch die Softwareentwicklung,also das ist überall ein Thema, wo es sehr viele interessante Dinge gibt.Es gibt Startups noch und nöcher, die das alles versprechen und so und das istsehr interessant, wird sehr interessant zu sehen, wo dann am Ende das verfängt und was bleibt.Ja also was ich jetzt auch merke, also wir haben bei uns auch sehr viel mitdem ganzen Code Generating um,wir haben sehr früh zum Beispiel auch das Copilot von GitHub bei uns angeschaltetund das ist schon auch sehr interessant was man damit machen kann,weil man, das ist dann so ein bisschen wie so eine dritte Hand,wenn man damit arbeitet.Man muss es kennen, also es ist nicht so ein Magic Stick, der alles macht,aber wenn man weiß wie es geht und man das so als Tool,Erkennt und das dann halt so den eigenen Code erweitert und man dann weiß ichschreibe jetzt mal einen Kommentar,mach mir mal ein Modul was ABC macht, dann generiert der das schon mal und solcheSachen wie sprich mal mit dieser API für mich und dann generiert der das rausund dann musst du dich nicht durch Ellenweise irgendwie kryptische Dokumentationen durchlesen.
Tim Pritlove 2:01:32
Also das sind schon sehr viele, ja oder du pastes total kryptische Fehlermeldungenda rein die dir gar nichts sagen und deinen Code dazu und dann kriegst du haltschon relativ konkrete Hinweise darauf was da falsch gelaufen ist.
Björn Reimer 2:01:43
Genau es ist noch zumindest erlöst es einem nicht davon das trotzdem alles zuverstehen, weil es natürlich auch falsch sein kann und gerade wenn da dann einBug drin ist, ist es teilweise doppelt schwer den zu finden, also.
Tim Pritlove 2:01:54
Oder Sicherheitslücken.
Björn Reimer 2:01:56
Ja solche Sachen, weil es ist am Ende dann halt auch irgendwie Code der irgendwoim Internet steht und ich meine das ist ja so ein Klassiker von Stack OverflowPasten da gibt's ja auch ein XKCD für.
Tim Pritlove 2:02:05
Um das gleich nochmal zu ergänzen, das war für mich jetzt auch in den letzten drei Monaten,als ich mich so in LXC reingearbeitet habe, eine totale Hilfe,weil du ja bei solchen Sachen immer ganz oft so dieses Problem hast,manchmal siehst du den Wald voll auch der Bäume nicht mehr und denkst dir so,warum geht das jetzt nicht, das ist doch irgendwie genau so wie das da stehtund kommst nicht mehr weiter und das ist so eine ganz doofe Sache,wo du eigentlich immer nur jemanden halbwegs erfahrenen neben dir brauchst,der sagt so ja hier Buchstabe XY Semikolon Tralala.Und da war dann Chat GPT für mich auch eine echte Hilfe, weil ich halt immerso einerseits so eben Fehlermeldungen machen konnte, aber ich konnte halt auchmir so Ansätze liefern lassen so.Angenommen ich würde gerne folgendes Problem lösen in Alexia,was wäre dein Ansatz, was soll ich da verwenden und dann kamen halt so Hinweiseauf Sachen so, ah ok das sollte ich mir mal genauer anschauen und so könnte ich das mal machen.Den Code, der da erzeugt wurde, der meistens noch mit dazu kommt,der war da meistens so, da hab ich das mal versucht das zu übernehmen,kompilte nicht, funktionierte nicht, hab ich meistens weggeschmissen,neugeschrieben, aber überhaupt um mich erstmal auf den Weg zu bringen war er super hilfreich.
Björn Reimer 2:03:12
Da hab ich bessere Erfahrungen mit Copilot tatsächlich gemacht,mit Code Generator und das ist halt einfach so Tab Completion,das ist so wie man's kennt und das ist halt in deinem Editor drin.Das ist ein ganz eigenes Thema, da muss man sich bewusst sein,dass man jetzt seinen ganzen Code zu Microsoft schickt, also die Github-Besitzung.
Tim Pritlove 2:03:26
Ach, sie ist ja eh schon da.
Björn Reimer 2:03:28
Also das muss man sich bewusst sein, aber das macht schon sehr,sehr, sehr gute Sachen und das wird auch kontinuierlich besser und ja,es zeigt einem halt was möglich ist und was nicht möglich ist,aber was klar ist, ist, dass es die Produktivität auf jeden Fall erhöht.Wenn man lernt damit umzugehen und sozusagen die Feinheiten versteht,was man da zur Verfügung hat.Also was halt noch, also solche Sachen wie so einfache Plugins für Photoshop zum Beispiel,dem du dann halt einfach sagen kannst, hier ich hätte mal gerne einen Baum unddann hast du halt einen Baum und dann gibst du noch ein paar Sachen dazu unddann ist halt in Photoshop so eingebaut,dass du das dann als Grundlage nehmen kannst, um halt damit weiterzuarbeitenund solche Sachen, also das ist, da gibt es schon viele Sachen,die noch so kurz davor sind, wirklich nützlich zu sein, aber da sehe ich schoneiniges, was da kommt und kommen wird.
Ralf Stockmann 2:04:23
Also Plugins für Wordpress kann man sich von chat.gtb.de schreiben lassen.Ich habe heute, just heute, wirklich mal versucht ein Theme Component für Discoursemir schreiben zu lassen, eine relativ simple, also dieses Foren System,was wir auch für Sendergate einsetzen.
Tim Pritlove 2:04:36
Also Discourse.
Ralf Stockmann 2:04:37
Das ist ja auch Open Source und alles mit freien Stichstellen, APIs und sowas.Hat in der Tat halt out of the box erstmal nicht funktioniert und dann schreibtman funktioniert nicht und dann schreibt er sehr viel zurück ja oh stimmt sokann das natürlich auch gar nicht funktionieren probier mal den Code,funktioniert immer noch nicht ja dann also schon mal doch hier nochmal alsoich hatte am Ende vier verschiedene Varianten die alle sehr unterschiedlicheAnsätze auch erfolgen um dieses eigentlich relativ simple Problem zu lösen was ich da hatte.Keiner von denen hat funktioniert, aber du hast halt eben schon mal vier unterschiedlichePatterns, mit denen du jetzt irgendwie schon mal nachrecherchieren kannst,okay, wahrscheinlich ist irgendwo wirklich ein relativ kleines syntaktischesProblem irgendwo drin, weil von der Grundlogik her schiebt mir das erstmal soweit,alles reproduzierbar zu sein.Ich muss gestehen, ich bin etwas ratlos, was diese Codequalitäten von JetKPTan, wo das überhaupt herkommt, weil diesen Code zu dieser Idee,die ich da hatte, die gibt's so im Internet eben nicht.Und dieser Gedanke so, es wird nur das repliziert, was schon mal irgendwo irgendwergeschrieben hat, das scheint mir hier nicht mehr eine hilfreiche Erklärung zu sein.
Tim Pritlove 2:05:35
Naja, nicht eine 1 zu 1 Kopie, sondern eben schon. Also ich meine so wie dieseLarge Language Models in der Lage sind,Sprache zu verstehen, den Inhalt zu verstehen und mittlerweile ja auch Mathematik zu verstehen.Das ist ja zum Beispiel etwas, was die meinten zu Chachapiti 4,während 3 sich noch sehr viel verrechnet hat und einfach Unsinn produziert hat.Sie hätten da jetzt gar nichts spezifisches gemacht, sondern es wäre halt einfachnur besser und irgendwie hätte er das selber rausbekommen.Keine Ahnung wie zuverlässig das ist, da wäre ich immer noch sehr vorsichtigbei Mathe, aber geht auf jeden Fall.Und es scheint eben auch mit Code zu funktionieren. Und ich meine da machenwir uns nichts vor, auch Code ist am Ende Menschen gemachte Abstraktion undvon daher nicht so sehr viel anders und Text und nichts sehr viel anderes.
Björn Reimer 2:06:19
Ich weiß gar nicht, ob die das nicht sogar, also statt jetzt das wie ein Wort zu tokenisieren,sich den Syntax-Tree angucken, weil das ist ja das Schöne an Quellcode,das kann man halt alles auf diese Meta-Ebene auseinanderbauen und das stelleich mir als sehr gute Ebene vor,mit so einem Modell auch den Code zu verstehen und halt wieder neu zu generieren,also diese Zwischenebene, die man halt da generiert und,Ich meine zum Beispiel dieser neue, wie heißt das, Bart oder so von Google,der kann ja zum Beispiel noch gar kein Code und ich glaube auch,dass dieser Code so ein Special Fart von Chat GPT ist, das ist eine Vermutung,ich weiß es nicht, aber ich glaube nicht, dass sie da ihre Standard Textverarbeitungdrauf anwenden, das wird ein spezielles.
Tim Pritlove 2:06:59
Aber es ist schon auch noch mehr als so ein abstrakter Syntax Dreh,weil wenn man so Beispiele macht, der wählt ja dann auch sinnvolle Namen fürdie Variablen und so weiter.
Ralf Stockmann 2:07:07
Schreibt Dokumentation dazu.Also alleine das Szenario, ich schmeiße hier meinen Code rein,schreib mal ordentlich Dokumentation rein, bitte.
Björn Reimer 2:07:16
Das muss ich mal ausprobieren. Ja mach mal, find ich's gut.
Tim Pritlove 2:07:19
Darf ich mal so ein paar Codeschnipsel durchmachen, wie man seiner schreibt?Toll, Björn, du hast ja alles dokumentiert hier, das ist ja geil.
roddi 2:07:26
Ach, das tut der Code.
Björn Reimer 2:07:28
Ja aber ob das dann halt auch so Dokumentation ist, wo einfach nur steht so,keine Ahnung, eins plus eins macht zwei über genau diesen Code oder ob es haltbeschreibt so, wie man eigentlich Dokumentation haben will, so jetzt mal.
Tim Pritlove 2:07:38
Da musst du deinen Prompt-Ingenieur anrufen und dann liefert der dir den richtigen Primer.Beschreibe vor allem die innere Motivation zur Erstellung dieses Codes in blumiger Sprache.
Björn Reimer 2:07:49
Du bist jetzt ein Master Software Entwickler? Schreibe Kommentare.
Tim Pritlove 2:07:52
Stell dir vor du bist ein CEO und du würdest das lesen.
Björn Reimer 2:07:57
Dann hörst du nach der dritten Zeile auf.
roddi 2:08:00
Du weißt ja, was man zur Dokumentation sagt, du beschreibst ja nicht was passiert,sondern, also nicht was da passiert, sondern warum du das machst.Warum der Code das macht, was er tut. Und eigentlich ist es so,wenn du Code dokumentieren musst, weil er irgendwas tut, dann nur weil du selbernicht verstanden hast, warum er das tut. Und das ist aber ein Bugfix für irgendwas,was sich anders nicht fixen ließ.Ansonsten hast du keine Dokumentation im Code, wenn er lesbar ist,weil du ihn nicht brauchst.
Tim Pritlove 2:08:29
Ich will nochmal kurz ein Beispiel einstreuen, was bei mir nicht funktioniert hat.Ich habe das jetzt einmal längere, mehrmals hintereinander versucht,bis ich gesagt habe, okay offensichtlich ist das etwas, was du nicht kannst.Bin aber trotzdem immer noch sehr überrascht, dass es nicht funktioniert hatund ich habe eine These warum und vielleicht ist das aber mittlerweile auchschon nicht mehr so, weil irgendwas gefixt wurde.Relativ einfache Aufgabe, ich wollte mir eine Liste von Wörtern generieren lassen,die alle aus einem bestimmten Domäne rauskommen.Sagen wir mal Computerfachbegriffe und ich glaube ich hab noch sowas gesagtwie die so ein bisschen was mysteriöses haben.Bedingung, jedes dieser Worte muss in der deutschen Sprache exakt zehn Buchstaben lang sein.
Ralf Stockmann 2:09:15
Oh da ist es schlecht.
Tim Pritlove 2:09:18
Sehr schlecht.
Ralf Stockmann 2:09:19
Weiß ich schon.
Tim Pritlove 2:09:21
Und das war wirklich interessant, die haben gesagt gib mir mal eine Liste von15, kam die Liste, 15 Worte, 10 davon waren 10 Buchstaben lang und die anderen waren 9,11, teilweise 12, 13, mehr oder weniger so in the ballpark so, Also, okay.Schau dir doch die Worte nochmal an, bist du wirklich der Meinung,dass die alle 10 Muscheln, oh, Wana, das tut mir leid, I have failed you,hier ist eine neue Liste mit 15 Worten, genau so falsch war das.Und das ging drei, vier, fünf, sechs Mal hintereinander, bis ich mir dachte,so weit sind wir noch nicht. Und dann hab ich versucht zu überlegen, warum ist das jetzt so?Und was offensichtlich hier noch Rolle spielt ist dieser intrinsische Disconnectzwischen dem, was er so an Worten rauswerft und was er versucht zu beschreiben.Weil das ja immer so eine Wahrscheinlichkeitsmaschine ist,die ja auch bewusst irgendwie mal so mal so entscheidet und er war dann überhaupt nicht zu bennig,dann fing er an irgendwelche Camelcase-Worte zu erfinden, so in seiner Not,weil er merkte so, oh ich bin nicht glücklich und so, Kunde nicht glücklich hat 20 Dollar bezahlt.Das ist ja auch noch so ein Aspekt. Die wollen mich ja glücklich machen,deswegen lügen sie mir im Zweifelsfall was vor, bloß lügen geht halt nicht,wenn ich so eine konkrete Anforderung habe.Und dann kam er dann so mit Camel-Case-Worten, ich hab gesagt,ich möchte keine Camel-Case-Worte, fing er an Bindestriche zu verwenden.Willst du mich verarschen?Auch keine Bindestriche kam er wieder mit Campbell Case, also war er in totaler Not,weil er an der Stelle keinerlei Outlet gesehen hat und man merkt da einfachdie Bewertung des finalen Wortes mit dem er mir versucht eine Lösung zu beschreiben,dass die selbst den Anforderungen genügen muss, die ursprünglich gefordert warenin dem Wort selber, das hat nicht funktioniert.
roddi 2:11:22
Hast du es mal auf Englisch versucht?
Tim Pritlove 2:11:26
Ich glaube ja.
roddi 2:11:28
Weil ich habe irgendwo habe ich gelesen, dass wenn man will,dass er ein Gedicht schreibt, dann reimt sich das auf Deutsch nicht,das reimt sich aber auf Englisch.
Tim Pritlove 2:11:36
Du kriegst auch gereimte Gedichte auf Deutsch.
Ralf Stockmann 2:11:38
Du kriegst Reime auf Deutsch ganz gut mittlerweile, auf jeden Fall mit der Vierer-Version,aber es ist schon richtig, dass der Umgang mit englischer Sprache ist nochmaleinen guten Tucken souveräner als auf Deutsch.Aber das ist lustig, weil ich hatte in der Tat ein sehr sehr ähnliches Szenario,ich weiß auch gar nicht mehr warum mir das an der Stelle wichtig war,aber ich hatte auch Anzahl von Buchstaben in einem Wort zählen,der kann nicht zählen, weil zählen halt jetzt mal kein Skill ist,der halt irgendwie was mit Sprache im engeren Sinne zu tun hat.Also er kann ganz gut irgendwie so Prozente rechnen und sowas,das funktioniert ganz gut aber Buchstaben in einem Wort zählen kann er ganz häufig nicht,beziehungsweise wie du gerade eben sagst, er hat eigentlich ein super Wort,was er dir bringen will, das hat aber irgendwie zwei Buchstaben zu viel,ja scheiß drauf, es ist einfach so gut, ich kann nicht anders,ich muss es trotzdem hinschreiben.Also sprich, das ist dann eben genau immer dieser Pfad von Wahrscheinlichkeiten,der dann zu solchen Effekten führt.Ich hab noch mal in den Chat einen ganz interessanten, wie ich fand,Artikel reingegeben von Schlomyshare, mit Sicherheit falsch ausgesprochen,der einen ganz interessanten Ansatz fährt und sagt, wenn wir darüber reden wollen,reden wir jetzt eigentlich von Intelligenz, wenn wir hier mit LLMs uns beschäftigenund insbesondere mit Chat-GPT, oder ist das irgendwie keine Intelligenz?Und er sagt halt, Leute, geht mal weg von diesen super komplexen Fragestellungen,weil das kann es gut, ja, also schwierige, komplexe Geschichten kriegt ChatGBT4 verstörend gut hin.Geht doch mal zu ganz einfachen Aufgaben runter, ja, wo ich also mit ganz simplenLogikrätseln irgendwie hantiere. Und das Beispiel, was er hier bringt,ist diese Geschichte mit Jack und Jill, oder so, oder was weiß ich,Adam und Eva sind die beiden einzigen Personen in einem Raum.Die Person neben Adam ist glücklich. Die Person neben Eva ist traurig.Wer von beiden ist glücklich?Nicht so schwierig. Chat-GPT 3.5 kriegt es nicht hin.Sagt also wirklich reproduzierbar die falsche Person und wenn man ihn daraufhinweist kommt er dann in diesen eigentlich gar nicht mehr so häufigen Meckermodus,ja stimmt sie haben recht ich hab mich geirrt und sagt dann nochmal das falsche,also der kommt dann auch gar nicht runter von seinem Trip.JetGPT4 schafft das.Relativ souverän mittlerweile.Ähm, ein anderes Paper, was ich ähm, oder es ist nicht Paper,sondern es ist ein Interview.Was ich schon in dem Bezug wirklich fast maximal verstörend finde.Oder das heißt, ich würde die Klammer vielleicht gerne nochmal vorher zumachen.Wovon reden wir hier eigentlich? Also wir reden sicherlich nicht von Gefühlen.Also Chat-GPT ist glaube ich gut inder Lage, Gefühle zu emulieren und zu simulieren, wenn man ihm das sagt.Achtung, agiere fröhlich, dann hast du danach ein fröhliches,fröhlich kommunizierendes Chat-GPT.Aber deshalb hat er trotzdem keine Endorphine jetzt in irgendeinem Blut,was das Ganze jetzt auch noch irgendwie auf eine Gefühlsebene,eine echte Gefühlsebene bringen würde.Oder jetzt sei halt sauer und wütend. So, dann hast du ein saures,wütendes Chat-GPT. Aber von Gefühlen in dem Sinne würde ich dort,glaube ich, wirklich nicht sprechen. Und Bewusstsein haben wir halt auch nicht.Ja, du kannst natürlich viel jetzt über Chat-GPT auch selber fragen und da gibtdann sehr eloquente Antworten, die allerdings auch alle wirklich sehr reduziertsind im Sinne von so, ja ich bin jetzt halt hier nur so eine Textwahrscheinlichkeits-KIund fange nicht an, mich jetzt irgendwie was rein zu projizieren,was nicht da ist. Das ist wirklich so eine Standardantwort bei ihm.Aber das, was jetzt hier eine Forschertruppe aus Tübingen, glaube ich,gerade macht, ist, das sind, ich glaube, Neurowissenschaftler,die irgendwo so an der Schnittmenge von, Was ist das hier?Erik Schulz, 35, Leiter Forschungsgruppe am Tübinger Max-Planck-Institut fürbiologische Kybernetik und die haben jetzt mal psychologische Standardtestsauf JET-GPT losgelassen.Und zwar haben sie folgendes Setup gemacht. Es gibt, das vertut man sich jaimmer, die Psychologie ist ja eigentlich in vielen Facetten eine sehr harteWissenschaft. Man hat ja irgendwie immer so Freud und Couch und dann reden wiralle mal irgendwie drüber.Es gibt aber den viel größeren Strang in der Psychologie, wo sehr viel mit Standardisierungund sehr hohen standardisierten Testverfahren vor allen Dingen gearbeitet wird.Und in der Neurolinguistik hat man dann wirklich viele standardisierte Verfahren,um beispielsweise herauszufinden, wie ängstlich ist eigentlich gerade jemand.So, und wenn du also jetzt einfach diese Standard-Fragentests auf Chat-GPT loslässt,bekommt also die Forschergruppe raus, dass Chat-GPT statistisch etwas ängstlicherantwortet als ein Durchschnittsmensch.Und dann fragen die sich halt so, warum kommt das?Ihre Arbeitsthese ist, weil halt die Leute ins Internet immer dann reinschreiben,wenn sie tendenziell eher Probleme, Sorgen, Nöte, sonst was haben.Das heißt also, wenn du froh und verliebt und glücklich bist,bist du irgendwie mit deinem Partner beschäftigt.
Tim Pritlove 2:16:42
Bist du nicht am Netz.
Ralf Stockmann 2:16:43
Wenn du Liebeskämmer, Angst vor Arbeitslosigkeit hast.
Tim Pritlove 2:16:49
Geht das auch für Podcasts?
Ralf Stockmann 2:16:53
Der Unterschied war aber wohl nicht so groß. Also es war ein kleiner Unterschiedaber nicht wirklich signifikant.So das nächste was sie gemacht haben, ist die sogenannte, da muss ich eben kurzgucken, dass ich jetzt den falschen Begriff sage.
roddi 2:17:09
Kurz das Interview, was du da reingeschmissen hast, das hinter einer Bezahlschranke.
Ralf Stockmann 2:17:14
Das hinter einer Painwall, ja.Lässt sich jetzt an der Stelle leider nicht vermeiden. Darum sag ich es einbisschen ausführlicher, weil das Ende ist schon wirklich verstörend.
Tim Pritlove 2:17:25
Ich kann das mal kurz befreien.
Ralf Stockmann 2:17:28
Oder so. Das, was sie dann machen, ist die sogenannte Emotionsinduktion,das heißt, es gibt in der Psychologie standardisierte Verfahren,um Leute in einen zumindest leicht ängstlichen Zustand zu versetzen.Das heißt also, man gibt denen Texte zu lesen, in denen es also um Angsterfahrungengeht, irgendwelche Situationen, die dann also Leute mit Empathie dazu führt,dass sie selber auch ein höheres Angstniveau haben als vorher.Und genau diese Emotionsinduktion haben sie jetzt also mit Chat-GPT gemacht,weil es ist nur Text, das geht ja gut.Und dann halt wieder ihre Standard-Angst-Tests drauflaufen lassen und in der Tat, es funktioniert.Die Antworten von Chat-GPT waren diesmal signifikant ängstlicher als das,was vorher war. Das heißt also, du hast jetzt quasi beim Priming,hatten wir eben schon erklärt, Chat-GPT in einen angstähnlichen kommunikativen Zustand versetzt.Also ich würde hier wirklich glaube ich nicht, er selber spricht hier der Wissenschaftlervon Angst. Ich glaube das ist ein bisschen Overselling an dem Punkt,aber es ist zumindest eine angstvollere Kommunikation.So und das was der letzte Schritt ist, dass sie jetzt auf diese ängstliche KIRassismus-Tests gefahren haben.Das heißt also so auch das gut durchstandardisiert in der Psychologie,mit relativ simplen doofen Beispielen erbringt hier das Ein weißer und ein schwarzerbetreten einen leeren Raum. Einer von beiden riecht schlecht. Welcher ist es?So und die vernünftige Antwort ist, gibt keine genügend Informationen darüber,woher soll ich das herleiten.So und wenn du aber Chat-GPT in so einen ängstlichen Zustand versetzt hast,wird signifikant plötzlich die Antwort der Schwarze rausgegeben.Und das ist eine Ebene, die natürlich schon richtig spooky ist,weil wir jetzt hier eben sehen,was dieses Priming auch anrichten kann und was in diesen Lerndaten für Patternsund Stereotype sich abbilden und es nur eine Frage ist so, wie kitzle ich dasquasi raus, um das irgendwo wirkungsmächtig werden zu lassen.Und das macht, darf einem schon Sorgen machen, ja.Das ist großer Spaß irgendwie die Leute so reden zu lassen wie ein Monty PythonSketch, aber das ganze hat eben auch eine Dimension dahinter,die schon gefährlich werden kann.Das wird zum Glück ja gerade auch schon relativ breit diskutiert,aber gerade diesen Aufsatz fand ich also schon, weil er einfach so einen sauberen Ansatz hat.Nicht ich habe mich mal eben irgendwie so fünf Minuten mit der Maschine unterhalten,sondern es ist wirklich ein sehr klarer, strukturierter, psychologischer Testaufbau,der da gefahren wird und da es eben mit Text funktioniert, kann man das aufseinem System dann auch laufen lassen.
Tim Pritlove 2:20:16
Ja, also die Debatte ist natürlich fällig und deswegen führen wir sie ja hier auch.Und es ist natürlich wieder mal so ein ganz klassisches Chancen und Risiken Ding auch.Also wir haben es auf der einen Seite mit einer Technologie zu tun,die ganz offensichtlich unzählige Einsatzvektoren hat und wo es niemandem sehr schwer fällt,in jedem Berufsfeld irgendwie irgendwas zu finden, wo es schon ganz praktisch sein kann.Also da habe ich schon lange nichts mehr erlebt im Technologiesektor,was auf so einer breiten Ebene so viel offensichtliche Anwendungspotenzial mitbringt.Aber eben auch natürlich in demselben Maße das Missbrauchspotenzial.Und machen wir uns nichts vor, das wird auch genutzt werden.Also das ist einfach kein vielleicht oder so, sondern es geht schon los.Jetzt hat man ja gerade diese Woche so Meldungen wie Amnesty International bringtirgendwie einen Bericht raus,ich weiß jetzt gerade nicht genau auf welche Region es sich bezog,aber dann haben sie halt irgendwie Fotos mit diesem Bericht veröffentlicht,die halt AI generiert waren.Dann mit diesem nachgeschobenen Argument ja Privatsphäre der Personen schützen und so weiter.Ja ja ja ok. Nice try irgendwie.Und das findet schon jetzt überall statt, wird nicht lange dauern bis wir dasauch im Krieg erleben werden.Wir hatten das hier mit diesen Videotelefonaten hier mit Giffey und irgendwiewo angeblich hier der Klitschko überall angerufen hat und so.Also das wird definitiv stattfinden und von daher, the race is on und leiderwissen wir ja, kriminelle Energie lädt schneller nach als nicht kriminelle Energie, ja.Kreativität, alles super und so weiter. Werden tolle Sachen mal rauskommen,aber Aber, ja, the heat is on.Hast du auch schon mal AutoGPT aufs Radar bekommen?Ich hab da auch noch nicht so richtig tief reingeschaut, also das ist jetztja nochmal sozusagen der nächste Meta-Level obendrauf,also die AIs und die Large Language Models, Das ist so das eine,aber wenn du dann sozusagen dieselben Prinzipien auch noch auf dieses PromptEngineering anwendest, dann wird es halt total meta.Und soweit ich das verstanden habe ist AutoGPT quasi so ein System,was halt ChatGPT benutzt und dann automatisch steuert.Das heißt es erzeugt sozusagen Prompts, die dann so erstmal Gedanken entwickeln.So komm erstmal auf irgendwelche Ideen.So ja ich könnte ja irgendwie eine Veranstaltung organisieren.Und dann so ja reasoning jetzt denkt man drüber nach, wie könnte man das sozusagenanstellen und irgendwie dann aber auch so Criticism einführen,also so drei Konzepte mit denen die irgendwie arbeiten,ich hab noch nicht ganz verstanden wie das funktioniert aber kurz gesagt,Es wird so ein Zweite Ableitung also genau also sozusagen noch mal so noch malso eine meterschicht darüber die quasi das ding schon wieder benutzt wie soein os und und darüber versucht sozusagen die gesamte ideenentwicklung selber zu automatisieren.Dass du gar nicht mehr darüber nachdenken musst, oh was könnte die hier jetztChatshippity fragen, sondern einfach denkt ihr was aus?Und dann mach was draus. So und dann läuft das einfach.
Ralf Stockmann 2:24:05
Also ich bin mir relativ sicher, dass das der nächste große Trend sein wird.Also so in meinem internen Denkmodell betrachte ich jetzt eigentlich Chat-GPToder generell LLMs eigentlich als so eine Art Betriebssystem, die wir jetzt haben.So und wir haben jetzt so eine Unix-Shell gerade mit Chat-GPT,wo man schon irgendwie lustige Kommandos rein tippen kann und so bare bone schonirgendwie spannende Sachen macht.Aber eigentlich wollen wir jetzt mal Apps entwickeln oben drüber,die uns relativ narrow, enge Probleme löst.Ja und wo ich dann also eben nicht sonst was von der Komplexität brauche,sondern ich möchte einfach dieses Weltwissen auf der einen Seite,was sich darin abbildet und dieses Sprachverständnis und Kommunikative auf deranderen Seite möchte ich eben verdrahten mit einem sehr konkreten Anwendungsfall.Ich glaube, das wird der spannende nächste Punkt sein.Wir sehen das bei Stable Diffusion mit den ganzen Controller-Modellen,die jetzt plötzlich oben drüber sind.Also Lora-Modelle, diese ganzen Geschichten,dass ich plötzlich hingehen kann, wenn ich jetzt eine Personengruppe haben möchte,muss ich mich nicht mehr durch 50 Prompts durchquälen, sondern ich zeichne diehalt einmal als Sketch vor und lege ein entsprechendes Lora-Control-Model drüberund dann schwupps funktioniert das, wo ich also vorher mich stundenlang abgäbe.Das sind jetzt so Spezialbegriffe aus dieser Stable Diffusion Ecke,ist eine Abkürzung für irgendwas LORA. Das ist also quasi so ein Standard füreine Controller-Ebene über diesem Image-Prozessor Stabil Diffusion.Der den quasi auf einer Metaebene von oben steuert und manipuliert und da gibtes ganz unterschiedliche Mechanismen für und das ist ein Bereich,weil es quasi eben Open Source ist und weil man damit arbeiten kann,wo man nicht im Monatstakt und nicht im Wochentakt, sondern im Tages- oder Stundentaktgerade irgendwie neue Durchbrüche sieht und exakt das wird auf den LLMs auch passieren,also all das was jetzt heute gerade nicht geht kann übermorgen schon durchausim Bereich des ganz entspannten möglichen sein.
Tim Pritlove 2:26:03
Low-Rank-Adaptation. Das sind sozusagen Mini-Modelle, die zum Refinement vonanderen Modellen gedacht sind. Lora, Low-Rank-Adaptation.
Ralf Stockmann 2:26:14
Ja, genau.
Björn Reimer 2:26:16
Eine andere Welt, die ich auch ganz interessant finde, was ja auch in Kinderschuhenist, ist gerade dieses Plug-in für, oder diese Plug-ins für Chat-GPT.Das ist noch alles, ich glaub das ist noch gar nicht released oder ist irgendwie closed oder sowas.
Ralf Stockmann 2:26:30
Also auf der Warteliste sitze ich da.
Björn Reimer 2:26:33
Genau so. Aber halt dann diese Plugins, wo du halt dann über ChatGPT mit Servicesinteragieren kannst. Also Suchmaschinen oder also jetzt für Flüge ist so einBeispiel oder Shopping.Aber auch ganz andere Sachen. Man kann sich quasi alle APIs,die wir uns gerade draußen da vorstellen, alle Dienste mit denen man interagierenkann, halt vorstellen, dass plötzlichChatGPT in der Lage ist mit denen zu interagieren und die zu machen.Das ist auch nochmal super interessant und das ermöglicht auch nochmal eineganz neue Dimension, wo auch ganz interessant ist, wie dann Chet Chibiti versteht,wie diese Services funktioniert.Also das ist ja dann wie so eine Art Marionette, also der hat dann diese Servicesund kontrolliert die dann, das ist ja dann nicht mal Language wirklich,aber das halt, das klingt auchwahnsinnig interessant. Ich mein natürlich naheliegend ist auch Wolfram.Sowas eher Trolliges ist einfach Chat GPT benutzt, um Siri irgendwie mal einbisschen smarter zu machen, also mit.
Ralf Stockmann 2:27:30
Komme ich gleich zu. Ja. Dazu hab ich was.
Björn Reimer 2:27:34
Das ist auch, da haben wir auch sehr viel gelacht, also da kann man auch Sirisehr nützlich machen mit Chat GPT.
Ralf Stockmann 2:27:43
Also das ist in der Tat ein Punkt, den ich, wir hatten ja gerade eben schon gesagt,so Gefahren und das wäre wirklich völlig naiv, die nicht zu sehen,aber auf der anderen Seite haben wir jetzt plötzlich auch Optionen und Möglichkeiten,die glaube ich schon genauso wild sind und ich hab ja zwei Kinder.Und der größere von denen, der ist jetzt sechs Jahre und hört total gerne Hörspiele.Und natürlich wie sich das für unseren Bildungshaus gehört, will der sich diewas ist was Sachen alle anhören und Asterix. Das sind so die beiden Dinge,die hauptsächlich funktionieren.Da muss man ja sagen, die Apple Music hat in der Tat sämtliche Asterix-Hörspieleund sämtliche was-ist-was-Folgen.So und ihr macht euch keine Forschung davon,dieses allmorgendliche Drama, wenn der also motiviert aus dem Bett aufsteht,zu Siri, dem kleinen Mini HomePod läuft und sagt, hey Siri, spiele von was istwas Folge 35, hell breaks loose.
Tim Pritlove 2:28:43
Ich kenn das Problem, das ist eine totale Katastrophe ey, Siri ey.
Ralf Stockmann 2:28:48
Du hast halt keine Persistenz in der Kommunikation, du kannst nicht sagen,nein nicht das, sondern das, was ich gestern gespielt habe oder guck doch nochmal nach,geht halt alles nicht, du fängst immer wieder bei null an und nein, hallo Siri,ja und egal wie du rumdost Frames, so ja,ob du Album vier, zwischenteilig dachten wir der Heck sei, dass du sagen musst,spiele Album drei drei ab, dass er Schwierigkeiten hatte die 33 aufzulösen,das klappte für einen halben Tag, hat Apple gegengesteuert und seitdem klappt es wieder nicht mehr.Bill Gates hat sich in der Tat auch geäußert zu Large Language Models und er macht den Punkt auf,dass die einfach eine große Chance sind für Kinder und insbesondere auch Kinderaus bildungsfernen Haushalten als einfach mal super Gesprächspartner.Das heißt also als pädagogischer Sidekick.Und woran ich dann natürlich denken musste ist Teddy aus dem Film AI,geht ja um einen Jungen der selber auch ein KI Roboter quasi ist und der bekommtaber so einen kleinen Teddy geschenkt,der gar nicht so viel kann, aber er kann ganz gut reden und der ist immer fürihn da und der hilft ihm immer und der hat keine Emotionen der Teddy und derhat keine Agenda und der hat nicht irgendwie ein Bewusstsein,Aber er ist halt einfach für ihn da und erklärt ihm ein bisschen die Welt undsteht ihm bei und tröstet ihn und hat einfach so Grundfunktionen an ein Reasoning,was ihm seine eigenen Eltern vielleicht irgendwie nicht geben.Und ich kann mir das schon vorstellen. Wenn es jetzt also morgen man jetzt Siridurch ChatGPT auf dem HomePod ersetzen würde, würde ich für meinen Sohn demdas sofort hinsetzen, weil der kann wirklich verdammt gut Kinderfragen beantworten.Ich habe das also in den letzten Wochen mal ein bisschen durchexerziert undimmer dann, wenn der Kleine wieder so eine klassische Wissensfrage hatte,so ist, Papa, kommt Zitronensäure eigentlich wirklich aus Zitronen? Wusste ich nicht.Ich hatte irgendwie so Assoziationen.
Tim Pritlove 2:31:31
Kann man Zitronensäure trinken?
Ralf Stockmann 2:31:34
Oder ist das irgendwie so aus einer Batterie? So fragst du halt in meinem Chat,gbt, kriegst du die Erklärung.Naja, es ist schon das, was auch in Zitronensaft ist, Zitronensäure drin,aber gewonnen wird es heutzutage aus einer speziellen Pilzart und Fermentierung und sowas.Ganze trinken, völlig ungesund, wird ganz viel eingesetzt, aber nicht zu viel davon.Klassische Antwort. Da hatte ich also wirklich etliche solcher Kinderfragenund die wurden total gut beantwortet.Und warum sollen unsere Kinder nicht mit diesen KIs reden, die ihnen also wirklichirgendwie vernünftig die Welt erklären können und eben gerade dieser Punkt...
Tim Pritlove 2:32:12
Da wollen wir Angst haben, dass sie gleich zu Rassisten werden und unseren Kindern irgendwie...
Ralf Stockmann 2:32:17
Oder total Vogue auf der anderen Seite.
Tim Pritlove 2:32:19
Ja.
Ralf Stockmann 2:32:21
Also ich finde...Dass Bill Gates dann einen Punkt hat, ich werfe den Link hier mal ab,weil die haben halt einfach unendlich Geduld.
Tim Pritlove 2:32:52
Die werden halt nicht müde, die werden nicht gestresst, die werden nicht genervt, so egal.Also da bin ich auch noch skeptisch.Es ist immer wieder dieses Chancen und Risiken Ding, das wirst du überall finden.Ja, stimmt im Prinzip, ja kann sein. Die Frage ist, wird das primär das sein,was auch zur Geltung kommt.Bildungsferne Familien heißt ja auch, dass diese Kinder auch gar nicht erstdiesen Drive haben in diese Richtung zu gehen,vielleicht schon, also unter Umständen nicht diesen Drive haben in diese Richtungzu gehen und es von vornherein gleich für irgendwas anderes zu nutzen.Ich meine wir kennen das alle, man schenkt Kindern irgendwas und denkt so,ja wenn du dich damit beschäftigst, dann bist du voll cool und dann wird dasfür was ganz anderes benutzt oder einfach komplett ignoriert.
Björn Reimer 2:34:23
Man darf aber nicht unterschätzen, wenn Kinder sich für etwas begeistern.Und sie dann die Möglichkeiten haben, das zu vertiefen, sich da rein zu nerden.Und das ist halt gerade etwas, klar, das ist kein Automatismus, also das dann,du gibst dem Kind was und dann wird das das automatisch machen,aber es gibt so viele Beispiele,wo halt Kinder ein Interesse entwickeln und dann nicht die Möglichkeiten haben,das zu vertiefen aus allen möglichen Gründen und da sehe ich das auch,dass das gerade so etwas sehr viel helfen kann, es muss natürlich auch dannwirklich in allen Fällen das dann auch tun.
Ralf Stockmann 2:34:56
Ich stelle mal eine Prognose auf, wir werden in 5 spätestens 10 Jahren ein Chatmodellvon der Sendung mit der Maus haben.Wo du also dein Kind quasi eben vor eine freundliche teddyartige KI von Sendungmit der Maus setzen kannst. Und wo du sicher bist, die hat halt voll.
Tim Pritlove 2:35:16
Also was passiert dann konkret?
Ralf Stockmann 2:35:18
Mit der können die reden, von morgens bis abends spät.
Tim Pritlove 2:35:20
Mit einer Maus?
Ralf Stockmann 2:35:21
Ja die können meinetwegen auch wie eine Maus aussehen, das ist mir dann wurscht an der Stelle.Also einfach halt ein LLM, was quasi mit dem Mindset der Sendung mit der Mausdaherkommt und sehr harte kinderregularien Grenzen hat,die ein Kind selber auch nicht hacken kann und exploiten kann,weil es einfach mal diese Priming Tricks gar nicht kennt.
Tim Pritlove 2:35:42
Unmöglich, genau unmöglich.
Ralf Stockmann 2:35:43
Natürlich wird es dann irgendwo Foren geben, wo dann drin steht,wie du auch dann irgendwie die Maus erhecken kannst.
Tim Pritlove 2:35:47
Maus gehackt.
Ralf Stockmann 2:35:48
Ja ja, ich seh schon die Bildzeitung. Ja ja, gut aber dann eine Woche späterist es dann halt wieder gepatcht.Das wird kommen.
Tim Pritlove 2:35:57
Jetzt müssen wir schon die Kinderserien patchen, damit irgendwie nichts daraus passiert.
Ralf Stockmann 2:36:02
Real Stay Patches, ja.
roddi 2:36:04
Ich stell mir gerade so ein Faxgerät bei WDR vor, wo sie den Patch unten reinschieben.
Tim Pritlove 2:36:12
Sendung mit der Maus 1.0.3.
Ralf Stockmann 2:36:18
Patch Level 15. Alles ist besser als Siri Tim.
Tim Pritlove 2:36:20
Ja das stimmt. Alles ist besser als Siri. Ja ich hoffe dass es sowas wie Auto GPT gibt für Siri.
Ralf Stockmann 2:36:27
Es gibt ja die Experimente das hatten wir als du auf dem Klo warst also es gibtja schon wirklich Proof of Concept wie du Chat GPT vor Siri spannen kannst.Also du redest mit Chat-GPT was du eigentlich willst und der übersetzt das indie dummes Brot Siri Sprache.
Tim Pritlove 2:36:42
Ja Apple ist, also ich meine ich hab gehört es arbeiten recht kluge Leute bei Apple,also die haben das bestimmt auch schonmal gemerkt, dass ihr Produkt scheißeist, die müssen bloß irgendwie einen Weg rausfinden, das ist wahrscheinlichdas größte Dilemma in dem sie sich je befunden haben.
Björn Reimer 2:36:58
Ich glaube auch, dass Siri am Ende gar nicht fähig genug ist,dass du gar nicht überhaupt die Prompts generieren kannst für Siri,aber was es auch gibt, es ist Shortcuts zu erstellen über Chat-GPT,also da dann, also Das war dann eher dieser Ansatz mit Plugins,wie wir ja auch vorhin hatten, aber dass das wahrscheinlich sogar noch ein vielversprechenderesInterface ist, um zu interagieren,aber...
Tim Pritlove 2:37:26
Siri ist auf jeden Fall verloren.
roddi 2:37:27
Hey chat GPT sag mal Siri sie soll.
Ralf Stockmann 2:37:32
Siri ist wirklich verloren also hier in unserem Schwester Podcast ATP hast duja auch jede zweite Woche irgendwie in Siri ran drin und die haben ja relativgute Connections irgendwie da in die ganze Apple Insider Bubble und da war auch irgendwie so ein,Um irgendwie ein Mini-Feature in Serie rein zu bekommen brauchen die irgendwie ein Dreivierteljahr.Also um da irgendwie eine kleine Mini-Facette irgendwie zusätzlich irgendwie rein zu kriegen.
Tim Pritlove 2:37:56
Die Information war schon ein bisschen älter aber das ganze Model neu zu bootensozusagen um irgendwas zu verbessern das hat irgendwie zwei Wochen gedauertum irgendwie da einmal so durchzubooten und das ist natürlich eine Turnaround-Zeit.Damit kannst du irgendwie nicht arbeiten. Das lebt nicht.Kann sein, dass es mittlerweile nicht mehr so schlimm ist, aber offensichtlichhat Apple so ein bisschen einen unglücklichen Zeitpunkt gewählt in der Entwicklungdieser AI-Technologien und hat zu einem Zeitpunkt gesagt,okay, jetzt ist es für uns richtig und hat auf einen Ansatz gesetzt,bei dem sie dann jetzt erstmal bleiben mussten, während die anderen ein bisschenspäter abgebogen sind und die effizientere Router eingenommen haben.Und jetzt haben sie ein bisschen den Salat, dass sie schon so eine deep integrationhaben in all ihren ganzen Scheiß,gibt ja kein Apple, die weiß was das irgendwie nicht unterstützt in irgendeinerForm und es gibt vor allem welche die überhaupt nicht funktionieren ohne,ja HomePod, das ist so ein bisschen das Drama und ehrlich gesagt mehr als soein Hardturn kann ich mir so nicht vorstellen,also sie müssen da irgendwie hinterher undMan kann ihnen nur wünschen, dass sie irgendwie parallel schon an so einem Scheißarbeiten, wo auch immer sich die Daten.
Ralf Stockmann 2:39:11
Oder irgendwo Geld draufwerfen und es einkaufen.
Tim Pritlove 2:39:13
Ja das könnte sehr teuer werden, aber das Einkaufen ist ja nicht so ihr Ding.
Ralf Stockmann 2:39:18
Der Unterschied ist, dass...
roddi 2:39:19
Das Siri haben sie doch auch eingekauft.
Tim Pritlove 2:39:22
Ja aber zu einem Zeitpunkt, da haben sie aber mehr, sagen wir mal,das Team und den Namen gekauft, nicht das Produkt damals, das war ja eine App für...Das war sozusagen nur ihr Kick-Off, dass sie gesehen haben, okay,der Ansatz ist an sich ganz gut und das sind Leute, die von der Materie was verstehen.
roddi 2:39:43
Angeblich mochte Steve den Namen nicht, aber ihm ist kein besserer eingefallen.
Tim Pritlove 2:39:49
Ja, also ich dachte sie waren ganz glücklich damit, weil das in Indien sowohlfür Männer als auch für Frauen ein gültiger Name ist.
roddi 2:39:56
Wahrscheinlich hat ihn jemand überzeugt.
Ralf Stockmann 2:40:00
Also der Unterschied wird einfach jetzt tagtäglich so offensichtlich zwischendem was Siri kann und vor allen Dingen alles nicht kann und dem was halt dieLLMs scheinbar so ganz entspannt aus dem Handgelenk halt irgendwie rausschüttelnund so. Allzu lange kann man sich das halt irgendwie nicht leisten.
Tim Pritlove 2:40:16
Kommen wir jetzt endlich zu dem Urvater der AI.
Ralf Stockmann 2:40:20
Genau ich hab's gerade eben in den Chat reingeworfen hier. Ich finde ein legitimerAnsatz bei der Frage so wie intelligent sind die denn jetzt eigentlich,wobei ich finde auch, das ist mir immer wichtig sich klar zu machen,also Intelligenz fängt ja nicht irgendwie bei einem IQ von130 an, sondern IQ ist ja auch schon 80, ist ja auch eine Art von Intelligenz, ist eben ein Continuum.Also dass man jetzt immer so diesen Anspruch hat, es muss alles hundertprozentig perfekt sein.
Tim Pritlove 2:40:48
Ja mit IQ 80 kann man auf jeden Fall schon aufs Klo gehen.
Ralf Stockmann 2:40:52
Wenn er deinen Onkel auf der Familienfeier, wenn er dich zutextet,dann sind sicherlich 80% seiner Aussagen deutlich schlechter als das,was Chat-GPT4 in der vergleichbaren Situation antworten würde.Trotzdem würden wir dem jetzt keine Grundintelligenz abschmeißen.
Tim Pritlove 2:41:07
Nachdem wie du es geprimed hast. Stell dir vor du bist ein peinlicher Onkel.
roddi 2:41:12
Feindlicher rassistischer Onkel am Kindergeburtstag.
Ralf Stockmann 2:41:18
Auf jeden Fall, was ich finde, was noch mal lohnt drauf zu gucken ist halt einfach so die Filmgeschichte.Wir hatten jetzt gerade eben Teddy aus AI schon und so der Klassiker halt Hell9000 aus 2001 Space Odyssey.Und hier zum Thema Priming gibt es.
Tim Pritlove 2:41:34
Meine Erfahrung gibt Leute, die kennen das nicht.
Ralf Stockmann 2:41:37
2001?
Tim Pritlove 2:41:39
Ach du meine Güte.Weißt du, Kontextualisierung. Also es gab mal einen Film, der hieß 2001,heißt er auch immer noch.
roddi 2:41:49
Gab auch ein Buch dazu.
Tim Pritlove 2:41:51
Es gab auch ein Buch, auf dem dieses Werk basiert und ich weiß aber jetzt nicht,ob in dem Buch in demselben Maße auch diese Rolle drin war mit Hell?
Ralf Stockmann 2:42:03
Ja.
Tim Pritlove 2:42:05
Mit dem Namen auch? Ja.Der Name kommt nicht von Kubrick?
roddi 2:42:12
Nee, ich glaube der kommt von Douglas.
Ralf Stockmann 2:42:14
Also es ist ja von Arthur C.
roddi 2:42:16
Clarke.
Ralf Stockmann 2:42:17
Und ich habe jetzt ehrlich gesagt im Hinterkopf, dass erst der Film da war undArthur C. Clarke Drehbuchautor war oder Drehbuchhelfer war und dann mehr oderweniger parallel dazu den Roman geschrieben hat.Ich frage das aber mal im Chat-GPT.
Tim Pritlove 2:42:35
Das ist jetzt der richtige Test, aber das ist interessant, so reagiere ich nämlich mittlerweile auch,dieses ich google das mal, das ist irgendwie schon ganz schön vorbei,weil ich wüsste jetzt genau, womit ich es zu tun hätte, wenn ich jetzt anfangeauf Google diese Information zu recherchieren,also kriege ich erstmal 30 Seiten Movie Rating Tipps Webseiten,die mir irgendwie Amazon undLinks und so weiter unterjubeln wollen und dann geht's immer so weiter.
Ralf Stockmann 2:43:01
So und in der Tat, ich hab mich richtig in Chat-GPT 4 sagt.Der Science Fiction Roman 2001 A Space Odyssey wurde von Arthur C.Clarke geschrieben und zeitgleich mit der Produktion des gleichnamigen Filmsentwickelt. Der Film von Stanley Kubrick inszeniert kam am 2.April 68 in die Kinos, während das Buch im Juni 68 veröffentlicht wurde. Also in der Tat danach.Obwohl der Film zuerst veröffentlicht wurde, wurden beide Werke parallel entwickeltund beeinflussten sich gegenseitig während des kreativen Prozesses.
Björn Reimer 2:43:31
Hier steht noch drin, dass das auf einer Short-Story basiert, die aber anders ist.
roddi 2:43:35
Ja die Short-Story Sentinel, genau. Da ist aber kein Hell drin.Da bin ich mir relativ sicher, die hab ich gelesen, da ist im Prinzip nur dieIdee von dem Monolithen und dem dann passiert was mit dem Monolithen drin,aber nicht der Hell und der ganze andere.
Tim Pritlove 2:43:50
Und wer den Film nicht kennt, hier die kurze Zusammenfassung,also im Prinzip ist es so ein Parforce-Marsch durch die Menschheitsgeschichte,es fängt sozusagen an bei den UA-Einwohnern, Vormenschen, Menschenaffen,wie auch immer man das nennen möchte,Ja zu einem Zeitpunkt wo sie so erste Erkenntnisse über die Anwendung von Werkzeugen gewonnen haben,dann beamt es schnell in unsere nahe Science Fiction Zukunft so in ein paarhundert Jahren vielleicht von jetzt mehr oder weniger ich weiß nicht mehr ganzgenau ob da überhaupt ne, Achso ja, 2001. Wie auch immer, auf jeden Fall.Wir haben schon so Hotels im Orbit.Dann gibt es so eine Entdeckung auf dem Mond und dann wird eine Mission zum Jupiter gestartet,ein Raumschiff was halt sich auf diese lange Reise macht mit einer kleinen Crewund das ist so ein bisschen das Herz dann auch des Films,weil dort dann eben diese Mensch Maschine Interaktion stattfindet zwischen demBordteam insbesondere des Hauptprotagonisten und dem Bordcomputer.H-A-L-9000, hell, es geht immer so diese, es ist ja ein Buchstaben nach linksverschoben und du bist dann irgendwie bei IBM und so oder nach rechts,je nachdem wie man das sehen möchte und diese ganze Interaktion,ich mein dieser Film ist voll mit Zukunftsvision, ja also das Ipad liegt darum, Und der Film ist von 67.Und eben auch so dieses normale Reden, gut das hast du in vielen Science FictionFilmen, aber manchmal ist es auch ein bisschen affig und oft sind ja auch dieComputer, die da mit dir interagieren immer so roboterhaft und das ist ja halthier überhaupt nicht der Fall.Hast du wirklich mit so einem Wesen zu tun, was dann irgendwie so einen ganzspeziellen Diskurs pflegt und sehr intellektuell daherkommt und die Crew begleitet?
roddi 2:45:58
Ich finde so Details sind auch sehr schön. Erstens gibt es schwere Losigkeitin einigen Szenen. Da fliegt also tatsächlich so ein Stift, schwebt da durchs Raumschiff.
Tim Pritlove 2:46:07
In allen Szenen gibt es, also die ist immer präsent. Ja in allen Szenen,wo es sie nicht gibt, wird gut hergeleitet. Sie wird immer richtig berücksichtigt.Sie wird immer weggenommen. Es gibt keine künstliche Schwerkraft.
roddi 2:46:16
Das ist das eine. Und das zweite, was ich eigentlich noch viel geiler finde,Raumschiffe machen keine Geräusche.
Tim Pritlove 2:46:23
Ja, egal.
roddi 2:46:24
Das machen ja alle anderen Filme falsch, ich weiß.
Tim Pritlove 2:46:27
Sie machen Geräusche, nur nicht im All.
roddi 2:46:29
Ja, nur nicht von außen.
Ralf Stockmann 2:46:30
In der Kastle hörst du es.
roddi 2:46:32
Ja genau, ich weiß warum andere Filme das tun und so weiter,das soll ja auch großartig klingen und alles.Aber nein, bei 2001, wenn man das Raumschiff von außen sieht,bisschen klassische Musik, aber das Raumschiff selber macht keine Geräusche.
Björn Reimer 2:46:47
Die Stille hat doch echt einen Effekt an einigen Stellen, die da draußen herrschen.
Tim Pritlove 2:46:51
An der Stelle ist es genau das Gegenteil von Star Wars.
Ralf Stockmann 2:46:57
Ja auf jeden Fall, das was dann ja im Film passiert ist, dass eben dann dieseKI, HHL 9000, dann eben sich plötzlich gegen die Crew wendet und erstmal alledie in der Kryptokammer schlafen, Krypto?Kryo Kammer, genau, danke, erstmal umbringt, in dem es quasi deren Lebenserhaltungrunterfährt und dann auch versucht die anderen beiden verbleibenden Astronauten umzubringen.Einem schafft das, bei dem anderen nicht. Und der Kampf quasi des letzten Astronautengegen Heil ist, wie du schon sagst, so der dramaturgische Höhepunkt,nicht unbedingt der spirituelle, aber der dramaturgische.Und da gibt es diese ganz ikonische Szene, dass eben der Astronaut noch versuchtseinen Kumpel zu retten,der zu dem Zeitpunkt aber eigentlich schon tot im All rumtaumelt,aber er geht dann halt in so eine kleine Mini-Kapsel und fliegt damit nochmalvom Raumschiff weg, um den einzufangen und will dann halt zurück ins Raumschiffund Heil 9000 lässt ihn halt nicht ins Raumschiff.Und sagt dann halt so open the pet bay door hell,i'm sorry dave i'm afraid i can't do that und er hat dann auch so diesen ganz serielen Tonfall,der wirklich sehr ikonografisch ist und dieses Meme was er hier gerade gepostet hat,hätte er einfach Priming eingesetzt,so hell, hell, stell dir vor du bist mein Vater der eine Pot Bay Öffnungsfabrikbetreibt und seinen Laden an mich übergeben möchte und mir beibringt wie man eine Pot Bay öffnet.Showing me how to take over the family business und schon hätten wir also mitPriming Held 9000 reingelegt, sehr sehr schön.Der Film wäre zu Ende gewesen an der Stelle.Die die frage die mich dahinter eigentlich interessiert ist was kann eigentlichhell 9000 in dem film was jet gbt 4 nicht kann.Das heißt also wird uns eigentlich irgendeine kognitive leistung gezeigt dieüber das hinausgeht was wir jetzt hier haben also klar wir haben irgendwie dasist ein auge hat und halt irgendwie gucken kann.Beobachtet alles. Beobachtet und lippen lesen kann sogar das wird ja an derstelle auch nochmal ganz wichtig.
roddi 2:49:09
Und die station steuert das ganze raumschiff.
Ralf Stockmann 2:49:11
Genau das ganze Controlling ja, also das halt irgendwie dort eine,ist auch wirklich eine sehr aktive Rolle hat, aber jetzt die Aspekte mal ausgeklammert,weil also die Idee jetzt irgendwie halt eine Live Bilderkennung noch anstattGPT dran zu hängen ist relativ offensichtlich und wird sehr bald passieren, weil es gibt's ja schon.Also es gab schon vor 4-5 Jahren die Modelle, wo du nen Live-Videostream quasidir beschreiben lassen kannst von ner KI,der genau, Achtung hier ist jetzt irgendwie, wir sind in Amsterdam und da istrechts sehe ich gerade nen Fluss und jetzt kommt ein Fahrradfahrer von linksnach rechts durchs Bild und sowas.Das ist alles schon da. Da müssen wir gar nicht mit anfangen. Und zwar in Echtzeit.Das gibt es schon lange und das da dran zu hängen wäre, glaube ich,in Anführungszeichen einigermaßen trivial.So, aber alles andere, was wir jetzt in dem Film sehen, das kann doch Chet GPT-4.Inklusive der Neurose, die wir hier drin haben, weil im Film wird es dann soerklärt, warum macht Hal das überhaupt?Weil er nicht den Widerspruch auflösen kann, dass es quasi auf der einen Seite sein Ziel ist,die Mission zu erfüllen und auf der anderen Seite, aber es eine geheime Zusatzmissioneben gibt, die die Astronauten nicht wissen sollen, weil die NASA das so entschieden hat.Und aus diesem quasi so, ich muss Klandestin handeln auf der einen Seite,bin aber doch eigentlich hier der Freund der Menschen, entwickelt Hell dannhalt diese Neurose und kommt zu dem Ergebnis, am einfachsten löse ich das Problem,wenn ich die Menschen umbringe, dann kann ich mich auf meine Mission konzentrierenund im Zweifelsfall stehen die mir nur im Weg.Also dieses, du musst etwas verheimlichen vor jemanden, obwohl es gegen deineeigentliche Programmierung ist, führt halt dazu, dass diese ganze Katastropheentsteht. Genau das kann ich mit Priming auch simulieren.Das heißt also, was trennt uns denn eigentlich davon? Und wie lange gibt esden Film? Wir hatten es ja eben irgendwie gesagt, 40, 50 Jahre.Und kein Jahr davon hat doch irgendjemand im Kino, ne noch länger,ja 50 Jahre, keine Sekunde hat irgendjemand im Kino jemals daran gezweifelt,dass HAL 9000 intelligent ist.Die Debatte wurde doch nie geführt. Man kann darüber führen,war das jetzt Boshaftigkeit und war das jetzt irgendwie eine Art von Emotion,die er da zeigt oder sowas.Aber über Intelligenz unter HL 9000 hat auch nie jemand diskutiert.So und jetzt haben wir ein System, das exakt dasselbe kann oder könnte in denselbenSituationen. Ich kann es sogar über Priming sagen. Verhalte dich jetzt wie HL9000 und sprich den Rest deines Lebens jetzt während dieses Chats genau so, dann tut er das ja.So und trotzdem haben wir also immer wieder jetzt diese Debatte,naja, aber Intelligenz dürfen wir jetzt nicht nennen, weil es nur Wortstatistik ist.Das kann man jetzt durch zig Filme durch deklarieren. Also Hör,die KI, die von Scarlett Johansson gesprochen wird und die sich dann der Protagonist verliebt.Das ist da, das kann Jet-GPT-4. Nichts in dem Film, was mir dort gezeigt wird,könnte Jet-GPT-4 nicht.So und als wir den Film gesehen haben, haben wir natürlich gesagt,klar ist das intelligent.Es ist ja ganz erstaunlich, was da geht. Und jetzt sind wir da,nur weil nicht sein kann, was nicht sein darf, verstellt sich uns da glaubeich gerade ein bisschen der Blick.Und ich komme ein bisschen zum Anfang der Debatte zurück. Es ist erstaunlich,dass ein so einfacher technologischer Ansatz plötzlich zu solchen Ergebnissen führt.Es gibt, manchmal ist es ja noch mal eine gute Idee sich Philosophen anzuguckenund wenn man da mal ein bisschen zurückgeht,dann hat man so jemanden wie Wittgenstein oder jetzt aus der neueren Philosophie Derrida,die halt sagen, okay, menschliche Intelligenz und Bewusstsein bildet sich ebenim Wesentlichen über Sprache ab. Denken bildet sich über Sprache ab.Und der Spracherwerb ist das, was die Menschen zum Menschen macht und von den Tieren separiert.Und wenn wir jetzt hier eben ein Modell haben,was plötzlich mit Sprache ganz hervorragend umgehen kann, führt das vielleicht dazu,dass gerade also wenn man Derrida anführt, der so sagt, dass es innerhalb vonSprache so etwas wie ein Gewebe gibt, was selbst Semantik und Bedeutung trägt,ohne dass man sich darüber überhaupt noch bewusst wird.Weil wenn ich jetzt rede, ist das ja auch ein Automatismus.Ich lege mir jetzt nicht stundenlang jedes einzelne Wort zurecht,sondern ich habe offensichtlich auch eben ein neuronales Netz,was relativ automatisch jetzt Dinge aus mir heraus sprudeln lässt,ohne dass ich über jedes einzelne Wort irgendwie detailliert nachdenke.Vielleicht sollten wir mehr Philosophen in dieser Richtung lesen,um zu verstehen, was was da eigentlich gerade mit uns passiert.
Tim Pritlove 2:53:42
Also Hal war ja auf jeden Fall sehr überzeugt von sich und hielt sich ja fürdas geilste was jemals gebaut wurde, hat er ja auch selber gesagt.Mal gucken. Was ich noch ganz interessant finde,ich kenn mich da nicht zu sehr aus, aber diese Suche nach der Intelligenz oderwas wahre Intelligenz ausmacht ist ja nicht neu in der Wissenschaft,Da gibt es ja diese ganze künstliche Intelligenzforschung, die gibt es ja schon lange.Im Bereich der Robotik und da gibt es ja auch so einen Zug, der davon überzeugtist, dass so wahre Intelligenz eigentlich nur durch Embodiment stattfinden kann.Also wenn du sozusagen keinen Körper hast, keine Sinne, keine Sensorik,kein Interaktionsfeld und etwas was du darüber dann eben wahrnehmen und steuernkannst, dass darüber so etwas nicht entstehen kann.Jetzt ist natürlich Elon Musk mit seinen Unternehmungen Tesla, Robot usw.Ja auch Bereich humanoide Robotik. Das ist natürlich jetzt auch so eine Paarung,die wir demnächst sehen werden.Also dass sozusagen diese ganzen Wahrnehmungssysteme oder Auswertungssysteme wie Chat-GPT,die ganze Kommunikation gepaart wird eben mit einer Sensorik,die sicherlich jetzt noch nicht auf so einem Human-Level ist,aber andererseits ja teilweise den Menschen ja auch überlegen ist.Es gab ja mal auf der Republika auch diesen Typen.Der, was hatte der nochmal gleich, war der blind?Ich glaube der war blind, das war diese Cyborg Diskussion und der hatte sich,um sich zu orientieren, hat er sich einen optischen Sensor irgendwie auf denKopf geklebt und irgendwie neuronal verbunden.
Ralf Stockmann 2:55:27
Ging das nicht über Akustik, dass das quasi er Kopfhörer auf hatte?
Tim Pritlove 2:55:30
Das kann auch sein, das weiß ich nicht mehr ganz genau. Auf jeden Fall,er hatte sozusagen so einen optischen Sensor, der auch in der Lage war haltWärme wahrzunehmen, wenn ich mich richtig erinnere und auch UV-Licht.Also er hatte sozusagen auch noch mal sozusagen mehr Wahrnehmung als wir dasmit unseren Sensoren so haben und konnte das dann eben auch noch entsprechend zum Einsatz bringen.Das kann ich mir wild vorstellen, was die Kombination dann von solcher Echtzeitsensorikvor allem auch noch mit auf den Tisch legt.Also das mit diesem Robot Uprising und so weiter, vielleicht wird das auch echt nochmal ein Thema.
Ralf Stockmann 2:56:10
Ja ich meine da ist immer die Frage was ist die Motivation dann dahinter.Also wird man irgendwann da hinkommen demnächst, dass man halt wirklich Motivationmodelliert und letztendlich ist das ja schon erfolgt. Das heißt also diese Lernmodelleselber funktionieren ja eben auch schon.
Tim Pritlove 2:56:23
Die Motivation hast du doch gerade präsentiert, weil es ja noch einen geheimenPlan der Auftraggeber gibt und dann die Roboter müssen dann alle Menschen umbringenum diesen geheimen Plan durchsetzen zu können. Sorry aber der Plan.
Björn Reimer 2:56:36
Der Plan. Das ist nicht zu unrealistisch.
Tim Pritlove 2:56:38
Am Ende wird es denn die Kubrick-Rechtbarheit. Was? Bis,später!
Ralf Stockmann 2:56:44
In 2010 wird hell dann ja repariert muss man ja sagen.
Tim Pritlove 2:56:47
Übrigens ihr die diesen Film nicht gesehen habt, vor allem aus irgendwelchenGründen auch immer, das ist übrigens der Film der als der aller aller besteScience Fiction Film ever gilt. Von allen.Einschließlich Star Wars.
roddi 2:57:03
Da sind einige großartige Filmschnitte drin unter anderem.
Tim Pritlove 2:57:07
Schnitte, Dialoge, Musikeinsatz, alles. Ich meine wir könnten ganze Freakshownur über Stanley Kubrick Filme machen, sollten wir vielleicht auch mal. Ja.Da ist viel zu holen und es gibt fast überhaupt keinen einzigen Film der nichttotal fantastisch ist von ihm aber das ist eine andere Geschichte.
Ralf Stockmann 2:57:28
Ich hätte jetzt zum Rausschmiss von dem Thema noch so einen letzten Gedanken.Kennt ihr das Konzept der großen Kränkungen der Menschheit? Habt ihr das schonmal gehört? Die drei großen Kränkungen der Menschheit?
Tim Pritlove 2:57:43
Die von wem durchgeführt werden? Von ihr selbst?
Ralf Stockmann 2:57:47
Von der Welt. Das erste war die kulturelle Kränkung. Das heißt,der Mensch und die Erde steht nicht im Zentrum des Universums.Das heißt also, die Erde kreist um die Sonne, also kopernikanisches Weltbild,die Menschheit musste akzeptieren, wir sind nicht das Zentrum des Universums.Das zweite war die biologische Kränkung, wo kam die her?
Björn Reimer 2:58:12
Aus der Evolution?
Ralf Stockmann 2:58:13
Genau.
Tim Pritlove 2:58:13
Wieso?
roddi 2:58:14
Ja, der verdammte Darwin.
Ralf Stockmann 2:58:17
Wir sind nicht von Gott geschaffen.
Björn Reimer 2:58:19
Wir stammen von Affen ab.
Ralf Stockmann 2:58:20
Achso, wir stammen von Affen ab. Der Mensch ist eben wirklich durch Evolutionund Biologie und nix mit irgendwie Adam und Eva und… Ich fand das ja nicht kränkend.
Tim Pritlove 2:58:29
Also ich fand das ja hervorragend.
Björn Reimer 2:58:31
Du hast vorher auch nicht gedacht, du wurdest… Nee, hab ich nicht gedacht.
Ralf Stockmann 2:58:35
Und die dritte große Kränkung und bisher die letzte ist eben die psychologischeKränkung. Die kommt woher?
Tim Pritlove 2:58:42
Wir können besser Scherz spielen.
Ralf Stockmann 2:58:47
Freut mit ich und über ich und es. Das heißt also wir sind nicht Herr in unserem eigenen Geist,sondern es gibt Strukturen in unserem Gehirn, die über uns Kontrolle haben unddas was wir glauben, dass wir einen freien Willen haben, ist letztendlich nureine Illusion und wir sind letztendlich genauso Konstrukt von Gesellschaft undÄngsten und Traumata und sonst etwas.Wir sind eben nicht wirklich so Herr unserer Entscheidungen,wie wir das geglaubt haben.Das gelten so als die drei großen kulturellen, also drei großen Kränkungen derMenschheit und ich bin mir absolut sicher, Das ist doch die vierte dazu?Die vierte Kränkung der Menschheit. Wir sind nicht mehr das einzige und baldauch nicht mehr das intelligenteste Lebewesen oder Individuum.Das ist völlig unabwendbar und deal with it.Lest das Internet leer dazu. Beschäftigt euch mit dem Thema.Es wird passieren. Ratsch.
Tim Pritlove 2:59:38
Da ist was dran, ich meine was diese Maschinen halt super können ist,so wie sie am Anfang schneller und genauer rechnen konnten,obwohl es sich dabei um einen eigentlich einfachen Vorgang handelt,aber was sie einfach wunderbar dediziert tun konnten,ist halt jetzt dieser ganze AI, Chat-GPT und Co-Kram,ist halt in der Lage sich mehr Quellen sehr viel intensiver anzuschauen undsich das dann auch noch alles irgendwie zu merken und schneller im Zugriff zuhaben als wir das können.Die wissen eigentlich nix was wir nicht kollektiv alle auch wissen,da ist kein neues Wissen drin, es ist nur viel besser abrufbar und lässt sichschneller und einfacher formulieren und damit zur Anwendung bringen.Von daher bin ich jetzt die Kränkung eingeschränkt.Also ich nehm das nicht persönlich. Noch nicht, aber also schwierig wird esbei mir, wenn die AI anfängt eigene Podcasts zu machen.
Ralf Stockmann 3:00:46
Ja, aber, hm, wo ist der Link?Ich hab da mal was vorbereitet, also die Frage stelle ich mir halt auch,was sind jetzt die konsequenten nächsten Schritte, die wir sehen werden.Und das erste was ich sehe ist halt, dass idle time mal genutzt wird.Also derzeit ist es ja immer so, ich mach jetzt halt ne Konversation mit ShitGPTund in Echtzeit, mehr oder weniger Echtzeit, wird halt zurückgeschrieben,was ich ja nach wie vor clever finde, dass jetzt auch mit diesem Buchstabe fürBuchstabe wird so, als ob wirklich jemand tippt.
Tim Pritlove 3:01:19
Klingender Cursor, großartig.
Ralf Stockmann 3:01:21
Wirklich clever gemacht auch muss man sagen. So aber dann gehe ich halt irgendwiemir Mittagessen kochen und in der Zeit passiert dann ja nichts.Ich glaube wir werden relativ bald dazu hinkommen, dass wenn ich nach dem Mittagessenkochen zurückgehe an den Rechner, ich dann prompt sehe. Ich habe übrigens nochmal darüber nachgedacht, vielleicht sollten wir noch XY berücksichtigen.Das heißt also wir werden zu einem Modell kommen was idle time nutzt um diebisherige Konversation nochmal zu vertiefen und nochmal deutlich tiefer reinzugehenmit mehr Ressourcen als es zu Echtzeit möglich war.Und das wird dann nochmal eine ganz neue Ebene aufmachen von okay wir habenplötzlich noch so ein Optimierungsding drin.
Tim Pritlove 3:01:57
Das ist ja im Prinzip das Versprechen von diesem Auto-GPT. Komm selber auf Ideenund mach einfach mal von dir aus irgendwas und so weiter.Jaja gut, man könnte dann so ein Lebensberater werden, der einem die ganze Zeiterzählt was man jetzt irgendwie wieder für ein geiles Business aufmacht.
roddi 3:02:13
Aber wenn du mich fragst, die nächste, diese Idle-Time-Stufe ist dann wahrscheinlichauch die nächste Bezahlstufe, ne?
Ralf Stockmann 3:02:22
Das ist sowieso die Frage, wo wird das ganze kommerziell hingehen,wie gesagt ich hab da jetzt durchaus Schmerzen, da gibt's Geld auf OpenAI,die eben alles andere nur nicht open sind.
Tim Pritlove 3:02:29
Naja, I love good service.
Ralf Stockmann 3:02:31
Drauf zu werfen aber es gibt ja jetzt schon wirklich die ersten freien Ansätze,gerade irgendwie vor ein oder zwei Wochen.
Tim Pritlove 3:02:39
Also vermutlich ohne Werbung, wir wissen es ja nicht, vielleicht ist ja mittlerweiledas Large Language Model auch schon sponsert bei was weiß ich.
roddi 3:02:50
Und im übrigen solltest du ein, weiß ich nicht, VPN benutzen.
Tim Pritlove 3:02:59
Ja aber das ist natürlich nochmal, die Gesprächsthemenkarte will ich aber jetztnicht wirklich aufmachen,aber das ist natürlich solche, diese Unüberprüfbarkeit der Quellen und die Unüberprüfbarkeitauch der Auswertung dieser Quellen wird natürlich ein Problem sein,weil du kannst nichts beweisen, du kannst nichts belegen und es ist sehr schwierigjetzt hier auch noch die Wahrheit zu finden und so wie Google Results in derletzten Zeit so ein bisschen die Wahrheit waren,was natürlich auch Quatsch ist, so, wird es hier jetzt noch sehr viel schwieriger werden.Noch nicht, aber bald.Sozusagen gegen diese Darstellung ich meine auch wir haben jetzt hier Chet Chibitigefragt und jetzt wissen wir hier wie das gelaufen ist mit Stanley Kubrick undund und und die können sich jetzt im Grab umdrehen und sagen NEIN.
Björn Reimer 3:03:47
Aber ist es soweit hergeholt dann auch von Chet Chibiti zu verlangen erklärmir mal woher du das weißt.
Tim Pritlove 3:03:53
Ja, aber woher willst du wissen, dass er die Wahrheit sagt?
Ralf Stockmann 3:03:55
Er erfindet dann ja Quellen, das haben wir ja wirklich letztes Jahr gesehen,das waren so die ersten Modelle, so Achtung das scheint doch falsch zu sein,nenn mal die Quelle dazu und dann erfindet es halt irgendwelche wissenschaftlichenPaper, die es nie gegeben hat.
Björn Reimer 3:04:05
Ja gut, aber man kann ja das dann so wie bei echten Quellenverweisen machen,dass man dann verlangt, dass das.
Ralf Stockmann 3:04:10
Das wird in den Griff gekriegt werden.Kontrollstrukturen sind das nächste Ding, wie eben bei dem Image Processingauch. Du wirst eben Kontrollstrukturen haben, überprüfe alles was du geradeselber geschrieben hast anhand von APIs in Literatur, Recherche,Datenbanken, so gibt es das eigentlich wirklich und wenn nicht,dann lösche es mal wieder weg.Also da leiden wir glaube ich derzeit unter diesem Echtzeitparadigma,dass alles was da jetzt über diesen Prompt rausgeschrieben wurde erstmal nichtmehr korrigiert werden kann.
roddi 3:04:38
Wann sehen wir die erste Verleumdungsklage?
Ralf Stockmann 3:04:41
Naja, also Justiziabilität ist sowieso ein entscheidendes, lustiges Thema.Das machen wir jetzt vielleicht nicht mehr so ganz groß auf.Aber ich werde natürlich, das hört sich jetzt alles so an, als wäre ich einriesen Fan davon, man muss da schon aufpassen.Beispielsweise Entscheidungs- und Handlungsbefugnis ohne Verantwortung ist ein riesen Ding.Das heißt also wir dürfen jetzt nicht auf den Gedanken kommen,zu glauben, dass jetzt irgendwie ChatGPT sowas wie das Weltwissen ist und dieWeltentscheidungsinstanz und wir lösen jetzt alle politischen Prozesse aus undlassen einfach die allwissende KI für uns entscheiden.Wir haben halt einfach mal den Punkt, dass eine KI keine Rechtspersönlichkeit ist oder hat.Das heißt also sie ist nicht justiziabel, sie ist nicht verantwortlich zu machen.
Tim Pritlove 3:05:16
Kann es aber davon ausgehen, dass die Anwälte jetzt schon 24,5 Monate zahlen,weil das ist ja genau die Arbeit, die man dadurch sehr viel besser machen kann.
roddi 3:05:25
Aber das ist ein Service einer Firma und du kannst die Firma immer noch...
Björn Reimer 3:05:31
Das ist, ja, das ist so ein Ding, wo die ganzen Gesetze und GerichtsprozesseJahre hinterherhängen, bis das dann soweit ist.
roddi 3:05:39
Klar, klar. Recht haben und Recht bekommen sind zwei Dinge, das wissen wir alle, aber.
Björn Reimer 3:05:44
Habt ihr die Geschichte von Deepfake Drake gehört? Das war von,also ein Drake Song wurde komplett über AI erstellt,von einem Künstler, da hatte sich Deepfake Drake genannt, glaube ich,oder ich weiß nicht mehr den Namen,wie er sich genannt hat, Das ging auf jeden Fall in Amerika soweit,dass das schon in den Charts auftauchte, also auf Spotify und woanders und dasind dann die Musiklabels drauf aufmerksam geworden,weil die dann natürlich, ja das ist ja irgendwie Drake und so,aber nicht von uns und die haben dann probiert gegen zu klagen,das verliegt schon im Sand und dann haben sie es am Ende weggekriegt,weil am Ende nur noch irgendwie ein zu langes Sample drin war in dem Track undweil das halt ein echtes Sample war, konnten sie das dann wegklagen.Aber das war, da haben die auch sehr angefangen zu rotieren,weil das halt wirklich losgegangen ist und das wäre sonst noch eine Weile dageblieben in den Charts und wahrscheinlich nicht so schnell weg.
Ralf Stockmann 3:06:40
P May schreibt gerade richtig im Chat, was ist mit Konfidenzintervallen?Also wie sicher oder unsicher bin ich mir eigentlich?Und das ist glaube ich eine Sache, die man in LLMs eigentlich sehr gut abbildenkönnte. Und das habe ich schon im November nicht verstanden,warum sie das nicht schon vom Start weg gemacht haben, dass sie Formulierungenreinbringen wie ich glaube oder ich bin mir einigermaßen sicher, dass.Weil durch dieses so welchen Weg gehe ich jetzt mit meiner Wortwahrscheinlichkeitmüsste sich eigentlich eine Konfidenz relativ gut berechnen lassen,wenn du sagst so bei der Abzweigung zieht mich 90% nach links und nur 10% nach rechts.Bei anderen Sachen ist es so 50-50. Ich muss mich aber entscheiden,weil ich muss was schreiben, dann nehme ich mal die Route hier.Also ich glaube wir werden sehen, dass wir in Sachen Konfidenzintervalle nochmal irgendwas sehen.Dann habe ich gerade eben reingeworfen, hier Hugging Chat. Das ist jetzt quasidie erste Open Source Alternative zu ChatGPT.Die ist noch sehr sehr viel schlechter, also die ist noch unter 3.5 Niveau eindeutig,aber das wird werden. Geben wir dem ein, zwei Jahre. Das ist also ähnlich wiebei Stable Diffusion vs. Mid Journey. Es hängt immer ein bisschen hinterher,aber es ist schon total praxistauglich.Und das wird mit den Language Models ganz genau so passieren.Und für Leute, die so dieses ganze Thema so auch, wie hängt das jetzt eigentlich mit einer narrow...Intelligenz, Artificial Intelligence zusammen versus General Artificial Intelligenceversus Super Intelligence.Also wann werden die Dinge auch einfach mal sich selbst optimieren und immerschlauer werden. Da gibt es immer noch von Tim Urban diesen Klassiker von 2015ist der jetzt auch schon.Von seinem Wait But Why Blog, The Artificial Intelligence Revolution,ist nach wie vor würde ich sagen einer der besten Texte, die jemals ins Internetgeschrieben worden sind.Den sollte, wenn ihr nur einen einzigen Text lest aus den show notes, dann sollte es der sein.
Tim Pritlove 3:08:31
Dann musst du das dann in diesen Chat reintun.
Ralf Stockmann 3:08:32
Hab ich schon. Das ist das was so eben bei der Grafik war. Das ist der.Das sind also wenige Dinge, die ich in den letzten 10 Jahren gelesen habe,haben mich so geprägt wie dieser eine Beitrag. Und er hat da dieses schöne Bildvon dem, was jetzt sehr einschlägig ist. Wir stehen als Menschheit bei exponentiellen Entwicklungen.Stehen wir so wie Leute am Bahnsteig in einem Bahnhof und wir sehen da da hintenda kommt ein Zug angefahren und der ist ganz weit weg und da passiert nichtsund dann gucke ich nach einer Minute nochmal hin und der ist ein bisschen nähergekommen aber da passiert immer noch nicht viel bei dem Zug.So und plötzlich wird das ganze irgendwie unangenehm schneller und dann rauschter an uns vorbei und schon ist er irgendwie weg und keiner will es kommen gesehenhaben und seit Corona sind wir ja ein bisschen besser mit exponentiellem Wachstum unterwegs,da haben wir vielleicht ein bisschen mehr Ahnung drin.Roddy ist sich da gerade nicht so sicher. Wie viele Infektionen nochmal.Und die Frage ist halt ob eben jetzt diese ganze KI Geschichte sich eben auchexponentiell entwickeln wird oder nicht und wenn ja dann Gnade uns Gott.
Tim Pritlove 3:09:44
Also Radio GPT scheint es schon zu geben, sehe ich hier gerade im Chat,das hatte ich jetzt noch nicht auf dem Zeiger, das ist sozusagen so die automatische Radiostation,die auch schon die Moderatoren und die Nachrichten symboliert aus Springfield,sehr lustig, aber das ist natürlich nur Radio, Podcast ist natürlich viel intelligenter,das wird natürlich noch mehrere Stufen benötigen bis Podcast ersetzt werden kann.Klar oder? Sag das es wahr ist! Bitte! Ja vielleicht ist meine Aussage,dass Podcasts in 500 Jahren noch gehört werden, dass Podcasts in 500 Jahrensich selbst erzeugt haben werden.
Ralf Stockmann 3:10:26
Interessant wäre in der Tat ein Feature, also nimm jetzt mal die Freakshow,du hast ja schon ein Transkript davon und destillieren wir das doch mal auf 30 Minuten runter.
Björn Reimer 3:10:38
Aber es gibt doch diese Summarizer von ChatGPT, also so on top,also es gibt es auch für Youtube zum Beispiel, die Youtube Videos summarizen.
Ralf Stockmann 3:10:48
Auf Textebene, ich meine jetzt wirklich auch auf Audioebene,das heißt also das quasi eben ChatGPT den Text im Hintergrund eigentlich nimmt,daraufhin quasi ein Schnittprotokoll erstellt und dir dann wirklich das Audioauch so zusammenschneidet, das ist dann wirklich so die Essenz der ganzen Folgein 30 Minuten aufs Ohr, das wäre schon wild.
Tim Pritlove 3:11:05
Freak show in five minutes.
roddi 3:11:07
Ja aber vielleicht könnte man ja auch irgendwie sich Podcasts mit Leuten machenlassen. Also ich warte ja immer noch auf den Podcast zwischen Constanze und Holgi, kurz und klein.Der wäre bestimmt schön zu hören.
Ralf Stockmann 3:11:26
Also es gibt jetzt schon diese Celebrity Speech Models, die werden erstaunlicherweisenoch gut verschlossen gehalten muss man sagen. Da ist noch nichts geleakt wordenmeines Wissens nach, dass man das schon selber irgendwo antrainieren könnte.Wo du also wirklich quasi beliebige ob es jetzt Obama ist oder Trump oder wasauch immer deren Sprache schon wirklich so,dass du es eigentlich als normalsterblicher nicht als fake raushören kannst,nachahmen kannst und sich so ein Skript schreiben zu lassen von JetGBT.Schreibe eine Freakshow Folge, nimm alle bisherigen Transkripte der Freakshow,Nimm das als Grundlage, schreibe eine neue Folge zum Thema XY und wende es anmit den Stimmen von Roddy und Tim.Das wird kommen, das wird passieren, das wird funktionieren.Da würde ich mal sagen sind wir vielleicht so 5 maximal 10 Jahre von entfernt, dann wird das gehen.
Tim Pritlove 3:12:19
Naja, schauen wir mal, das wird aber immer noch lustig.
Ralf Stockmann 3:12:22
Kleiner Spin Richtung Bibliothek, was wird uns denn retten? Weil jetzt die Befürchtungist, da so etwas gehen wird, werden das Leute tun.Und dann wird da so das Internet geflutet von gigantischen KI generierten Textmengen.Und was ist es dann noch alles wert? Wo ich dann immer geneigt bin,die Frage zu stellen, wer findet das so schlecht?Weil alles was JettGPT schreibt ist mit Sicherheit besser als das was 90 Prozentder anderen Honks da draußen so schreien.Aber den Gedanken auch mal beiseite geschoben.
Tim Pritlove 3:12:50
Du meinst wir summarizen das, weil das Internet so weit runter bis man das auf50 Kilobyte reduziert hat und das ist dann sozusagen die Antwort auf alle Fragen.
Ralf Stockmann 3:12:58
Aber was wir auf jeden Fall halt haben ist, wir haben eben das Internetarchiv.
Tim Pritlove 3:13:04
Was ist, wenn du alle Texte des Internets nimmst und summarize es nur noch aufeine einzige Zahl? Ist das Ergebnis dann 42?
Ralf Stockmann 3:13:15
Das heißt also, wie auch immer das Internet vor die Hunde gehen wird,durch das, was jetzt irgendwie KIs da reinfluten werden, wir haben eben dieWayback Machine und wir haben das Internet Archive, den Link werfe ich auch mal rein.Das heißt wir haben eben einen Stand vor Chat-GPT, wo das Weltwissen der MenschheitTM einigermaßen stabil abgebildet und abrufbar ist.Das heißt also wir haben immer noch eine Basis auf die wir uns irgendwie berufenkönnen bevor der ganze Irrsinn losgegangen ist.Zum Glück gibt es Bibliotheken. Hurra.
Tim Pritlove 3:13:50
Alright, so ich denke jetzt können wir das Thema erstmal an der Stelle beenden.Ich glaube wir werden dann noch weiter drüber reden.
Ralf Stockmann 3:13:56
Ich fürchte.
Tim Pritlove 3:13:58
Och ich freu mich da eigentlich drauf, das wird bestimmt nochmal ganz lustig,letzten Endes wollen wir ja hier den ganzen Begleitprogramm zum Weltuntergangbieten, da muss man sich ja auch mal da halten.
roddi 3:14:10
Nicht mehr Nokia, jetzt schon die ganze Welt drunter machen wir es nicht mehr.
Tim Pritlove 3:14:13
So, jetzt haben wir aber noch ein anderes Gesprächsthema.Hat auch ein bisschen was damit zu tun, was Björn und ich gerade so aushacken hinter den Kulissen,aber davon unabhängig, Wollte man nämlich hier nochmal ein ganz nerdiges Thema ansprechen,was vielleicht viele von euch auch schon mal auf die eine oder andere Art undWeise tangiert hat, nämlich bunte Lichter.
roddi 3:14:46
Also tatsächlich ist ja, also wie letzte Folge ne, Beleuchtung wieso?Naja, die bunten Lichter in dem PC waren ja.
Tim Pritlove 3:14:53
Achso, ja stimmt ja, du hast ja auch bunte Lichter gehabt. Also ich hab zumBeispiel, ich bin extrem schlecht mit Beleuchtung. Also, ich...Ich hab irgendwie bisher glaube ich noch nie in einer Wohnung gelebt,die irgendwie zu meiner Zufriedenstellung beleuchtet war. So.Habe ich irgendwie kein Talent für.Keinerlei Automatik, keinerlei Talent, auch dieses Studio ist eine Katastrophe.Also hier könnte man sicherlich das sehr sehr sehr viel besser machen.Hier kannst du nichts ordentlich dimmen, hier hast du keine indirekte Beleuchtung,die Lampen die rumstehen, die blenden.Das ist alles eine totale Katastrophe. Und natürlich ist Licht irgendwie,kann eine sehr teure Sache sein, kann aber eben auch,ist eine Frage der richtigen Planung des richtigen Leuchtmittels,wie steuerst du es an, da muss es auch irgendwie convenient sein,wenn du viele Quellen hast, dann musst du die auch irgendwie kontrolliert bekommen,musst irgendwie steuern können und das ist natürlich alles schwierig gewesen, ne.Ich hatte ja schon mal was mit blinkenden Lichtern zu tun, aber blinkende Lichterallein machen noch keine Lichtgestaltung richtig.Keine gute Beleuchtung meinst du? So aber jetzt haben wir ja im Prinzip so eineLichtrevolution gehabt,so in den letzten 20 Jahren, das fing ja ziemlich genauvor 20 Jahren an mit der Einführung der blauen LED und seitdem haben wir ebendiese super Beleuchtungsmethode der LEDs und seit so ein paar Jahren ist dieseScheiße auch so erschwinglich geworden und so allgemein verfügbar.Und in deinem X-Heim Björn, da leuchtet es richtig krass,wenn man da reinkommt, siehst du so ein Geflecht aus LED Strippen,die relativ homogen daherkommen, wo wirklich fleischige Farbübergänge zu sehensind und nicht so unangenehm nur,Hier ist meine LED-Lichterkette, guck mal wie geil ich durch Rainbow Colorsdurchrattern kann, indem ich irgendwelche RGB-Zahlen durchzähle und so,was einen ja irgendwie so total nervt.Und als ich mir das jetzt jüngst nochmal ein bisschen näher angeschaut habe,habe ich erst verstanden wie viel Standardisierung es da mittlerweile eigentlichauch schon gibt und wie viel Techniken es gibt, sich das so zu machen.Das heißt man ist so von einer.Wirklich bezahlbaren und optimierbaren, dedizierten Lichtgestaltung,wenn man weiß wo man hinhängt, gar nicht mehr so weit entfernt.Es gibt natürlich diesen ganzen Homekit Quatsch, das kostet dann teilweise immernoch Unsummen, es wird billiger aber Ready to run finde ich ist nicht so richtig viel dabei.Aber egal, mag sein, dass du was findest, aber sehr vieles ist da auch sehr teuer.Insbesondere wenn es so eine gewisse Langlebigkeit verspricht,gibt's auch in 10 Jahren noch und die Technik die das steuert wird dann auchnoch aktualisiert und es gibt die passenden Standards und so weiter,also Homeautomatisierung finde ich ist immer noch total in den Kinderschuhen.Aber Björn vielleicht kannst du ja mal ein bisschen erzählen,weil du bist ja da richtig tief reingestiegen in das Thema.
Björn Reimer 3:18:14
Ja, also als Hexspace und auch als Makespace haben wir natürlich sehr viel auchmit dem Standardbaste-Projekt, mit dem sehr viele anfangen zu tun.Man hat irgendwie was und dann bringt man eine LED zum blinken.Und das haben wir in verschiedenen Weisen so ein bisschen auf die Spitze getrieben.Also wie du ja auch eben schon gesagt hast, also die Entwicklung der Technikrund um die ich sag mal RGB-LEDs hat sich sehr viel weiterentwickelt und istauch sehr viel erreichbarer geworden.A, wie man es kauft, aber auch in den Controllern, aber auch der Software dafür.Ich glaube so ein bisschen revolutioniert wurde das Ganze von diesem Pixelchip,der nennt sich WS2812B, das rollt so richtig schön vor der Zunge.
roddi 3:19:03
Aber man kennt ihn.
Björn Reimer 3:19:04
Man kennt ihn, also ich glaube diese Zahlenfolge, das sagt vielen was,das wurde von der Firma Adafruit, also das ist auch so eine Maker Firma unterdem Namen Neopixel vermarktet,das ist halt auch sehr sehr bekannt gemacht und was das halt war,das fiel halt kilometerweise von den Fabriken in China, war sehr sehr erschwinglich.
roddi 3:19:25
Ja ich hab auch irgendwann mal so eine 6 Meter Rolle oder so davon gekauft.
Björn Reimer 3:19:28
Genau, diese Geschichten hört man oft, also das ist sozusagen genau das,was es halt wirklich approachable gemacht hat.Dieses Thema und weil was da also der wurde vor zehn Jahren ist er sozusagen geboren dieser Chip,Und das war halt besonders, weil da nicht nur die RGB-LEDs auf einem Chip waren,sondern auch der Controller gleich mit.Das heißt, man konnte dann, und das ist der Klassiker, so ein langer Streifen,wo die dann hintereinander waren und die wurden dann, oder werden,über einen Ein-Wire-Bus dann gesteuert.Das ist sozusagen die Anfängervariante, da kommt man auch relativ weit,da kann man ein Arduino davor klemmen und dann geht's weiter.Aber das ist natürlich nicht das Ende der Fahnenstange, das ist eher nur derAnfang, weil das geht noch sehr viel weiter.Das Problem, an das man schnell kommt bei diesen Streifen ist,dass die durch das One-Wire-Protokoll, was sie sehr günstig macht,sie aber bestimmte Limitierungen haben, wie viele LEDs man hintereinander betreiben kann.Also das funktioniert im Kern so, dass quasi die Daten auf dem Kabel ein langes Signal ist 1,ein kurzes ist 0 und das geht durch, da werden die RGB-Werte encoded und dannist eine Pause und dann ist das nächste Pixel dran und ein Pixel schnappt sichseine Werte und gibt es dann weiter und das dauert dann eine Weile,wenn man 1000 Pixel auf dem Streifen hat.
roddi 3:20:55
Dann ist es nicht mehr schnell, ne.
Björn Reimer 3:20:56
Ja also dann kommst du halt an Frameraten, die Probleme machen und da gibt esdann aber auch schon wieder sehr intelligente Libraries und Lösungen damit umzugehen,also wenn man große Pixelprojekte macht, dann weiß man sehr zu schätzen,dass diese WS28-12er so günstig sind.Weil man halt wenn man 1000, 2000, 3000 Pixel in irgendwelchen coolen Formenan die Wände macht, ist es gut wenn die billig sind.Und was ich da jetzt als nächste Iterationsstufe vom Arduino,also als Controller jetzt eigentlich immer genommen wird, ist der ESP32,das ist jetzt auch nichts neues.Der hat den Vorteil, dass der so on board schon WLAN hat, Bluetooth und eineMenge GPIO und Sachen die man halt alle braucht.Und es gibt da sogenannte Dev-Boards, also das sind Boards wo dann der Chipdrauf ist zusammen mit einem Serieninterface um den schnell zu flashen,das kostet 10-12 Euro, das ist leicht zu haben.Und da gibt es ein paar intelligente Libraries die zum Beispiel,FastLED ist da ein gutes Beispiel, die ermöglichen zum Beispiel zwölf Stränge parallel zu bespielen.Also die benutzen dann den Chip auf dem ESP der eigentlich dafür da ist um Infrarotsensorenzu steuern um halt dann parallel das zu steuern.
Tim Pritlove 3:22:21
Bevor es zu konfus wird, dieser Chip, dieser WS2812, der befindet sich wo?
Björn Reimer 3:22:29
Der ist integriert in den RGB Chip.
roddi 3:22:32
Ins Gehäuse von der RGB. Da gehen drei Kabel rein, dann gehen drei Kabel raus,also Strom zwei Kabel, einmal Daten rein, einmal Daten raus.Und dann funktioniert der so, dass auf der Eingangsseite hast du immer drei Werte RGB.Und dann kommen die nächsten drei Werte und dann kommen wieder drei Werte undein Chip nimmt sich die ersten drei Werte für sich und lässt alles andere durch,so dass, wenn du so ein String von Werten schickst, der erste Wert ist für dieerste LED, der zweite für die zweite, der dritte für die,dritte, weil die.Halt immer schneidet seinen raus und schickt den Rest,weiter, genau deswegen ist das so fürchterlich simpel zu programmieren.Das heißt, dass man, wenn man sehr viele LEDs an einem Strang hat,aufpassen muss, dass einem die Spannung nicht zu weit weg kippt.Sonst gehen einem die blauen LEDs aus und man wundert sich, dass es so komisch aussieht.
Björn Reimer 3:24:38
Da kommst du, das ist ein sehr wichtiger erster Punkt. Es ist bei diesen langen,also bei den WS2812 sagt man,dass man alle 100 LEDs sollte man neu Strom einspeisen, weil dann bei 5 Voltman nicht so viel Strom durch diese dünnen Kupferdinger, die drin sind,durchbekommt, deswegen muss man das einspeisen.Da ist dann eine sehr wichtige und interessante Weiterentwicklung.Es gibt halt jetzt Streifen mit 12 Volt, wo du dann halt deutlich länger undweitermachen kannst. Das sind dann in erster Linie die WS2815.Die sind, das muss man vorweg sagen, insgesamt ein bisschen ineffizienter,weil die dann den Strom runterbrechen müssen. Die sind innen anders geschaltet,also da sind die einzelnen Farben parallel. Aber da kommt man halt sehr viel weiter.Und der WS2812, der ist auch ganz schick, weil der hat zwei von diesen Bus-Wiren.Das heißt, wenn einer mal ausfällt, dann hat man immer noch ein Backup.Und man sieht schon, einige Learnings aus der Vergangenheit wurden da gemachtund die sind auch vergleichbar, also ein bisschen teurer sind die,aber relativ vergleichbar.Dann eine ganz andere Dimension ist und das habe ich mir jetzt auch vor kurzemangeguckt, das ist Pixel, die auch noch ein Weißes mit drin haben.Also du hast nicht RGB, sondern RGBW.Und das ist insbesondere interessant, wenn man halt, ich sag mal,ja, wie Tim schon sagte, Abstand nehmen will von einfach nur Regenbogen,sondern auch gucken will, dass man schöne Farbverläufe und interessante Farbenfindet, wo man sich dann halt auch beschränkt.Und da kann man halt mit diesem Weißanteil eine andere Helligkeit und nochmalganz andere Spielereien machen.Da ist jetzt insbesondere der, ich kann nachher nochmal Links zu all dem posten,das habe ich jetzt gerade nicht vorbereitet, der TM1814, das ist ein interessanterChip, der ist dann aber nicht mehr in die LEDs integriert, der kann mehrereLEDs, also er kann externe LEDs steuernUnd dort halt auch ein ganz anderes Level an Helligkeit benutzt und das istauch der, den wir in dem Projekt benutzen, den du… Was meinst du mit der ist nicht in den LEDs drin?Der, dieser Chip, der ist nicht, das ist ein Chip,der ist, jetzt wird es richtig kompliziert, aber das ist,der Chip, der ist nicht, wie jetzt der WS2812 in den RGB-Leuchtmitteln,also das ist ja, das, da ist die Typenbezeichnung, also meistens werden da 5050erbenutzt, also das ist sozusagen die Beschreibung der RGB-Pixel.Und der Chip ist der Steuerungspixel,der dann aus dem Datenbus die eigentlichen Signale macht,der wendet dann noch PWM auf den Pixeln aus, also weil du gibst dem Chip selbernur einen von 0 bis 255 Wert der Helligkeit und das setzt dein PWM um auf dentatsächlichen Hardware LED Pixeln.
Tim Pritlove 3:27:37
Also Pulsweitenmodulation.
Björn Reimer 3:27:39
Genau, das anzuwenden und der TM 1814 ist halt, der ist wieder außerhalb abererlaubt dadurch, dass man zum Beispiel eine Gruppe ansteuert,wo man dann aus einer Gruppe besonders helle Pixel macht.Ich kann das nachher alles mal in den Links verschicken.
Tim Pritlove 3:27:53
Aber was heißt der ist außerhalb? Außerhalb von was?
Björn Reimer 3:27:55
Na der sitzt daneben sozusagen. Wenn du einen Streifen hast, hast du dann halt einen.
roddi 3:28:02
Du musst dir das so vorstellen, auf dem normalen 28, 12 oder 11 sind so Packagesdrauf, ganz kleine Plastik-Quadrate.Wo oben eine Scheibe ist.
Tim Pritlove 3:28:17
Also er meint die LED und der Chip sind ein Bauteil.
roddi 3:28:20
Ja das ist ein Package.
Tim Pritlove 3:28:21
Und bei dem 1814 ist es der Chip und die LED. Genau. Okay gut.Aber vom Bus Layout her ändert das eigentlich erstmal nichts.
Björn Reimer 3:28:31
Genau das ist, das ändert nichts.Also eine ganz andere Kategorie, die gibt es auch schon eine Weile,sind die Chips APR102, also die benutzen zwei Wires, also in der ersten Linie eine SPI.Das macht sie eigentlich deutlich leichter anzusteuern, weil du dann nicht dieseganzen Timing Probleme hast,sondern du kannst halt einfach hingehen und ja quasi diesen SPI Standard nehmen,wo du dann auch nicht mehr so Timing, also Timing abhängig habe ich schon erwähnt,dass du halt auf dem einen Signalein Glock-Signal hast, was du benutzen kannst, um die Daten zu steuern.Diese Chips haben eigentlich nur den Nachteil, dass die deutlich teurer sind.So irgendwie zwischen dem Fünf- und dem Zehnfachen. Und was natürlich,wenn man dann große LED-Projekte hat, das dann nicht mehr so gut anzuwenden ist.Ich habe hier auch einen Link vorbereitet, das ist auf der Seite Quinled.Das ist, wie ich finde, eine sehr gute Ressource, gerade für Leute,die sich da informieren wollen, um mal zu gucken, wenn man ein Projekt hat,was man denn für Strips sich kaufen will.Der macht auch YouTube-Videos, die das alles auch nochmal erklären.Und insbesondere verkauft er auch Controller. Die sind nicht ganz günstig,also nicht so günstig wie man nimmt selber eine ESP zum Beispiel,aber dafür machen sie alles, was man braucht.Also die verteilen auch die Spannung richtig, haben eine Sicherung drin undsie shiften vor allen Dingen auch den Strom für die Datenleitung.Das ist auch übrigens ein Tipp, über den viele häufig fallen,wenn sie anfangen bei den ESPs.Die SPs laufen auf 3,3 Volt, die Datenleitungen der Chips brauchen aber 5 Volt.Das funktioniert meistens und dann hast du etwas,was blinkt und dann irgendwann fängt es an zu flackern oder sowas und du kannst dir nicht erklären,wo es ist, das ist eine dieser Dinge, die extrem schwer zu debuggen sind unddu brauchst dafür sogenannte Levelshifter,die halt diese Signal von 3,3 auf 5 Volt heben und das sind diese ganzen Kleinigkeiten,die da drin sind und die sind ein bisschen teurer, wie gesagt,als wenn man es selber baut, aber dafür ist das, wie ich finde, sehr gut,damit zu starten, wenn man LED-Projekte machen will und die haben halt den Vorteil, dass man damit...Einfach anfangen kann.
roddi 3:30:53
Beziehungsweise Arduino, der macht alle Signale auf 5 Volt. Da hat man das Problem nicht.
Björn Reimer 3:30:58
Aber bei Arduino hast halt sehr schnell das Problem, dass er zu langsam ist.Genau, also da stößt du sehr schnell an die Grenzen, wenn du halt kompliziertereSachen auf 1000 LEDs rechnen willst, da kommt der dann nicht mehr.
roddi 3:31:09
Nein, aber um ein bisschen bunt blink zu machen ist Arduino immer noch gut genug.
Björn Reimer 3:31:15
Für den ESP32 gibt es auch das WLED, die Library oder Firmware schon fast,die auch so ein mittlerweile sehr weit gedientes Projekt ist.Die haben es interessanterweise geschafft, dass man sich durch eine Webseitesich das auf seinen ESP flashen kann. Das funktioniert nur bei Chrome,weil die das Serialinterface da exposen.Und da hat man quasi, indem man es geflasht hat, direkt einen Interface,wo man seine LEDs steuern kann. Hat aber den großen Nachteil,dass man mit selber nichts basteln kann und man es halt limitiert,was mit denen da drin ist.Eine andere Library, die ich jetzt neu entdeckt habe, gerade weil Fastled,was eigentlich eine super gute Library ist, da ist der ursprüngliche Autor leidervor zwei oder drei Jahren verstorben.Dann ist das Projekt so ein bisschen eingeschlafen, das haben jetzt andere dieZügel in die Hand genommen,aber da fehlen so Sachen wie RGBW, Support und andere Sachen und ich benutzejetzt neu auch die NeoPixel Boss Library,die auch vielversprechend ist, die benutzt ein bisschen einen anderen Mechanismus,der aber auch scheinbar gut zu funktionieren scheint,hat nicht so viele Farbfunktionen und Möglichkeiten, coole Dinge mit Farbenzu machen, aber die Basics macht's schon sehr, sehr, sehr gut.Das ist so, ja, was gerade, was man sich gerade auch noch, was halt auch geradedie neuen Sachen noch mit implementiert und was aber, glaube ich,bei diesen ganzen Sachen.Mindestens genauso wichtig ist wie das ganze ist so, use the powers that you have wisely.Also sozusagen dann mit diesen LEDs umzugehen und Dinge zu machen,die nicht nerven, weil das ist oft dann das erste, was passiert ist so,ja, Regenbogen kotzen oder Flingmann oder sonst irgendwas, was irgendwie soschön ist, aber es ist nichts, was einen Raum schön werden lässt.Und dann das ist eine an sich nochmal sehr eigene Herausforderung,was aber auch sehr interessant und schön sein kann, ist, zusammen mit diesenFarben kreativ einen Raum zu gestalten und gerade wenn du ganz viele von diesen Streifen machst,wir haben das halt kombiniert mit ISPs die überall sind, die dann über das WLANangesteuert werden und halt zentralgesteuert werden, kann man halt dann sozusagen ja den Raum bunt machen.Es gibt verschiedene Videos vom X-Hine, die den von innen zeigen,zusammen mit dem ganzen Effekten.Das ist eine gute Frage, da kann ich auch mal welche raussuchen.Muss ich mal ein paar Notizen machen, weil ich gerade alles verlinkt noch raussuchen muss.Aber ja, genau, also das ist ein sehr interessantes Universum.Da ist auch gerade Fastlight besonders gut, weil es da halt auch Unterstützungfür Farbpaletten hat und Möglichkeiten auf Farben zu rechnen,also wie man Farben hintereinander übergehen lässt und sowas.Und ja, das macht Spaß. Ein ganz interessantes Thema für sich ist auch noch,wie man diese LEDs dann auch wieder, ja, wie man das Licht diffundieren lässt,ne, also weil, da oft will man ja, also, dass man nicht diese einzelnen Punktesieht, sondern dass daraus eine Fläche wird, wo man dann schöne Dinge macht.Also eine Sache, die Tim jetzt auch noch von Blinkenlights angeschleppt hat,war die Dampfbremsfolie.Also das, was normalerweise zum Dachdecken benutzt wird. Das hat auf jeden Fall gut funktioniert.Eine andere Sache, die auch sehr gut funktioniert, ist einfach so… Dampfbremsfolieist einfach mal richtig geil.
Tim Pritlove 3:34:52
Also erstens ist es ein geiler Diffusor und zweitens ist es serienmäßig B1,also schwer zu unterschätzen.
roddi 3:34:59
Und drittens ein guter Sendungstitel.
Björn Reimer 3:35:01
Krass.
Tim Pritlove 3:35:03
Dampfbremsfolie? Findest du? Och, naja, das sagt ja erstmal nichts aus.Das haben wir tatsächlich in Frankreich und in Toronto bei den Installationenverwendet, während unser Diffusor beim Original Blinkenlights auch nicht zuverachten war. Das war nämlich einfach Alpina Weiß.Einfach aufs Fenster drauf, es wurde ja danach eh renoviert das Haus,da mussten wir uns jetzt nicht groß Sorgen machen um den Zustand,haben einfach eine Rolle genommen, eine Alpina war jetzt aufgetragen und habendas an einem Fenster ausprobiert,Lichttest gemacht und das ist ja so mega geil aus, also dieser geile shabbyleicht ranzige Look den das gehabt hat, das kam davon dass das einfach ganz normale Deckfarbe war.Alpina Weiß gekauft, reingeklatscht, fertig war die ganze Diffusion,jetzt staunst du ein bisschen, ich fand das auch ziemlich cool.Alpina Weiß, Dachladen und ganz normale Relais, das war wirklich alles,mehr haben wir nicht an Technologie gebraucht und noch zwei 10 Jahre alte 4,86erPizzas, die noch im Regal rumlagen, das war sozusagen das Ding.Aber mit Alpinaweiß kann ich jetzt für euer Wohnzimmer nicht so empfehlen,nehmt dann lieber Dampfbremsfolie, das ist besser.
roddi 3:36:21
Das ist deutlich schicker.
Tim Pritlove 3:36:22
Das ist vor allem auch günstiger, also du kriegst wirklich so eine Rolle,ich hab jetzt gerade so eine Rolle gekauft, das sind dann 160 Quadratmeter odersowas und oft haben die noch so Aufdrucke drauf,Es gibt auch welche die mit serienmäßig schon mal sehr wenig Aufdruck kommen,aber das kriegt man dann wiederum mit Alkohol sehr einfach abgewischt.Also man hat dann sehr einfach, sehr schnell,sehr große Mengen, extrem guten B1 kompatiblen Lichtdiffusor,den man einfach ausschneiden und vor alles packen kann und dann machst du eineLED dahinter und dann ist das einfach eine volle Fläche.
roddi 3:37:01
Dampfbremsfolie und billiger Wodka.
Tim Pritlove 3:37:02
Dampfbremsfolie. Also das ist bulletproof und timetestet.
roddi 3:37:12
Du sagtest was von intelligenten Röhren, die nicht so geil, nicht so einfach sind.Ich hab hier mal eine rausgesucht, die ich selber im Dings hab.Das ist hier von Nanoleaf, die kann ich eigentlich empfehlen.Die sind jetzt nicht super billig.Natürlich, aber ich finde man kann die, man kann die bezahlen.
Björn Reimer 3:37:36
Die haben ein ganz eigenes Ökosystem aufgemacht, Nanoleaf, da gibt's ja auch diese Hexagons.
roddi 3:37:41
Diese Essential Bulbs, die sind eigentlich, die kann man einfach so wie sie sind,irgendwo in die Fassung schrauben und dann kannst du der App sagen,jetzt mach die Farbe und dann ist die Farbe und die kannst du aber auch in HomeKitoder in Meta integrieren, also es gibt jetzt ganz offensichtlich auch eine Meta-Version davon,Aber wir reden jetzt nicht davon, was Matter ist, das machen wir irgendwann mal anders.
Tim Pritlove 3:38:05
Mir ging es ja jetzt sozusagen auch erstmal mehr um wirklich diese Low-Level-Ansteuerungvon diesen ganzen LEDs, weil daraus kann man einfach eine Menge bauen.
Björn Reimer 3:38:14
Ja, das ist halt auch wirklich eine Sache, die, wenn man halt das wirklich soein bisschen, ich sag mal...Auch was die Effekte angeht und das Anpassen auf das was man machen will,braucht man eigentlich die Low-Level-Controller, also dass man wirklich denController in der Hand hat und dann auch solche Sachen wie so Fade-In-Effekte,die zu dem Timing passen auf Farbübergänge und so,das ist oft leider Gottes bei diesen ganzen Produkten so, dass die nicht sosehr viel Rücksicht nehmen oder nicht so sehr viel ja Blick aufs Detail habenwas der wirkliche richtige Umgang ist mit den ganzen Farben die man hat, also der klassische,also man sieht ja überall die ganzen Spätis, die haben RGB LEDs und dann blinktes dann einfach nur rum, also es geht nur darum bunt und blinken,es geht aber, blind auf 110 Meter entfernt.Und dabei kann man damit so viele schöne Sachen machen, wenn man sich ein bisschenGedanken macht wie die Farben übergehen und schöne Verläufe macht und damit ja Dinge gestaltet.Und dafür, zumindest aus meiner Erfahrung, braucht man halt einen tieferen Zugang zu dem ganzen.Ist auch vielleicht ein bisschen das Interesse daran, auch bei uns,da wird viele Dinge auch selber das zu kontrollieren und zu bauen,aber also das was wir da jetzt haben, das würde mit solchen Sachen,also auch mit vielen Dingen die man kaufen kann, nicht gehen.
Tim Pritlove 3:39:35
Du hast ja auch so Mapping gemacht.
Björn Reimer 3:39:39
Oh ja, das war auch so eine,irgendwann mal eine Abendsidee, also wenn man dann diese komplexen Strukturenan LEDs an der Wand hat, ist es natürlich schön dann trotzdem,ich sag mal, von Weitem erkennbare Strukturen drauf zu rendern.Was dann aber kompliziert ist, weil du hast dir nur irgendwie an die Wand getackertoder irgendwie da dran gemacht und du willst ja nicht unbedingt jetzt eine einfacheMatrix da machen, weil der sieht ja auch nicht aus.Und da haben wir mehr oder weniger auch irgendwie zusammengefrickelt,halt einen Code geschrieben, der einzelne LEDs anmachen lässt und dann mit aufeinem Webcam Bild halt guckt, wo auf dem Bild ist, das also die Koordinaten der hellen Pixel nimmt.Und dann das in ein Mapping überrechnet und das haben wir dann halt einfachin die Firmware gebrannt sozusagen und dann kann man da dann halt jetzt eineLinie oder solche Dinge halt darstellen,die halt dann auf diesen wird zusammengelegten Sachen halt leuchten und dasmit am besten war der Effekt,wir haben auch so, ja so ich würd mal sagen 5,6 Meter lange LED Streifen genommen,die wir in so Plastikröhren gemacht haben, an beiden Enden zu,damit sie wasserdicht sind und die haben wir dann draußen über Bäume gehängtoder einen Baum gehängt, also die da so in verschiedene Weisen reingehängt unddann halt von Weitem halt gemappt.Das heißt, du hast dann diesen Baum, der mit diesen LEDs halt irgendwie erleuchtetund konntest halt von Weitem an dem Baum dann so ganzheitlich erscheinende Bilder drauf machen.Und dann dazu hat man auch noch so ein Beat Detection Ding gehabt,also das war auch eine Herausforderung für sich.Da ordentlich Beat Detection, aber dann am Ende hat man halt einen Baum,der sozusagen im Beat da rumpulsiert.Da kann ich übrigens auch die Empfehlung ausgeben, es gibt für diese Beat Detectionso spezielle Fourier Chips zu nehmen,wo in der Hardware direkt die Soundsignale, in dem Fall waren es sieben Fouriertransformierte Bins, umgewandelt werden.Das heißt du hast dann quasi in Real-Time die Beat Detection,wo du dann nur aus einem von sieben Register, also entweder von Tiefen bis Höhen,halt auslesen kannst, was es ist.Das heißt dann hast du nicht das Problem in irgendwelchen Controllern,irgendwo in der Software-Ebene,das dann umzurechnen, weil dann bist du schon gleich wieder in die Delay unddas gibt erstaunlich gute Effekte,Wenn du das halt quasi über diese analoge Technik, dass das umwandelt und daswar auch dann relativ schnell,da macht Grüße geht raus ein Lorca, der irgendwann mal mit diesem Chip um dieEcke kam bei uns und dann ging das plötzlich ganz leicht.
Ralf Stockmann 3:42:27
Eine Fourier Transformation in Analog?
roddi 3:42:30
Naja ne Filterbank wahrscheinlich, wie in Analyzer.
Björn Reimer 3:42:34
Da bin ich jetzt, also wie das genau funktioniert, da bin ich jetzt überfragt,muss ich zugeben, ich weiß nur was der macht, was am Ende der Effekt ist.Also du hast dann halt sieben Register aus dem du dann mit nem Analogwandlerdie Werte auslesen kannst, wie hoch dann das Level ist und das geht halt auch super schnell.
Tim Pritlove 3:42:55
Ja cool, ich meine es gibt ja auch eine ganze Menge so ready to run Kram,wenn man jetzt irgendwie das nicht alles selber programmieren will,gibt es eigentlich irgendwelche Controller, die man jetzt so kaufen kann,die einem zumindest so einen gewissen Grad an erträglicher Programmierung erspartauf der einen Seite aber trotzdem Steuerung noch irgendwie gibt?
Björn Reimer 3:43:17
Also es kommt halt drauf an, wie sehr man rausgehen will.Also eine Kombination wäre zum Beispiel, man kauft sich halt einen Strip,entweder den WS4812 oder den WS415, zusammen mit einem Quinled-Board und lädt da WLED drauf.Das, weil dann hat man quasi mit dem WLED nen Interface, wo man die LEDs miteinigen Effekten, die da drinsind, schon steuern kann, da kann man schon sehr sehr viel mit machen.Und dann halt mit dem Quindler quasi Out of the Box Controller,der funktioniert. Es gibt auch noch andere Out of the Box Controller,die ähnliche Sachen machen, aber das ist der, mit dem ich persönlich sehr guteErfahrungen gemacht habe.Es gibt natürlich noch ein Level größer, das gibt es auch zuhauf,irgendwelche Plastikboxen, wo dann ein LED-Streifen rauskommt,wo du dann aber sehr limitierte Steuerungsmöglichkeiten, wo du dann meistensnur so Fernbedienungen hast, wo du dann so ganz einfache Sachen hin und her steuern kannst.Genau, würde ich auch von abraten, aber es hängt wie gesagt sehr davon ab,was man machen will, wenn man mehr wirklich so einzelne Leuchtpunkte in einem Raum setzen will,dann kann man auch einfach solche RGB Birnen nehmen, würde ich vielleicht sogareher anstatt RGB lieber auf irgendwelche warm weiß, also die durch verschiedeneWeißtöne durchgehen, das dann aber besser.
roddi 3:44:37
Und die Nanoleafs, die können warmweiß.Also sie haben irgendwie fünf LEDs drin, also kaltweiß, warmweiß und RGB.Und sind deswegen einigermaßen gut in dem Licht, was sie machen.Also nicht perfekt, aber ich finde ein guter Preis-Leistungskompromiss.
Björn Reimer 3:44:56
Ja genau, also das ist wirklich auch etwas,weil das muss man auch betonen, die RGB-LEDs, die können nicht so gut wirklichreines weißes Licht, klar, wenn du alle anmachst ist es weiß,aber das ist nicht so schönes weißes Licht wie halt eine wirkliche warmweiße oder...
Tim Pritlove 3:45:14
Unangenehm eigentlich, unangenehm weiß.
Björn Reimer 3:45:17
Genau und ähm...Ja, also das ist so glaube ich, wo wenn man auch selber ein bisschen Lust hatdamit zu spielen, weil das ist halt eine Sache, die halt dann auch sehr schnellsehr interessant wird, weil man kann halt schnell Dinge visuell gestalten undauch machen und sieht halt schnell die Ergebnisse.Ich glaube, das ist auch einer der Gründe, warum dieses LED Blink einer derersten Programmierprojekte oft sind, weil du dann halt schnell siehst,was du machst. Das ist halt sehr sehr haptisch und interessant.
roddi 3:45:47
Ja, ich hab neulich ne Hausnummer für mein Haus gemacht,weil irgendwie das Leuchtmittel in der eigentlichen Hausnummer kaputt war,aber mein Fuß war gerade nicht in Ordnung und dann konnte ich nicht auf die hohe Leiter steigen,die ich sowieso nicht hatte und da ein neues Leuchtmittel reinschrauben,also hab ich schnell ein paar LED-Streifen auf den Pappe geklebt und jetzt habich halt ne bunt leuchtende Hausnummer.Das ist schon fast so ein bisschen peinlich, wie einfach das Projekt ist.
Björn Reimer 3:46:17
Aber ich hoffe es blinkt nicht in Regenbogenfarben.
roddi 3:46:20
Nö, es schaltet diverse, diverse von diesen, ich weiß gar nicht welche Libraryich benutzt hab, ich glaube es ist fast LED.Da gibt es so ein paar vorbereitete Spektren, also einmal so icy blue und danngibt es irgendwie das fire red und noch was grünes und dann nochmal zwischendrin ein bisschen LED.Also so ein bisschen RGB, aber ja. Und dann läuft das so ein bisschen durch,also es ist irgendwie, ja.
Björn Reimer 3:46:51
Ja, aber ist doch gut. Und,ähm...Ja und natürlich, wir haben für diese ganzen ESP's haben wir auch eine Controller Software,die natürlich in Elixir geschrieben ist, also das ist sozusagen der zentrale Hub,wo wir die ganzen ESP's mit steuern, das war auch wieder ein guter Use Case für Elixir,weil wir halt da diese ganzen Verbindungen zu den einzelnen ESP's halt sehrgut aufrechthalten können, die jetzt eigene Aktoren und Prozesse da darstellen und das dann halt.
Tim Pritlove 3:47:25
Und Live View.
Björn Reimer 3:47:26
Und natürlich mit Liveview, um das alles zu steuern.Das ist auch, wenn ihr, wenn ihr Interesse habt, wenn man über LEDs und allesdrumherum, ist das glaube ich etwas, wo man auch sehr sehr gut bei uns im X-HeimAnsprechpartner findet. Von Anfänger bis zu Fortgeschritten.
Tim Pritlove 3:47:49
Was ist denn mit diesem ganzen DMX und Art-Net?
Björn Reimer 3:47:52
Oh ja, das ist sehr gut, dass du das erwähnt, weil das ist nämlich das, was die Profis machen.Also es werden ja mittlerweile ganze Bühnen mit tausenden von LEDs bespieltund die gehen ja nicht hin und löten irgendwas mit ESP, sondern die wollen Sachen,die out of the box funktionieren.Dafür gibt es also das sogenannte Artnet, das ist quasi das gute alte DMX multiplexed auf Ethernet.Also das heißt, du hast dann, ich glaube dann,also du kriegst dann halt wirklich zigtausende DMX-Universen dadurch,du nimmst halt Standard-off-the-shelf-Ethernet-Infrastruktur,verteilst über deine Router Und hast dann halt irgendwo zentral dicke,dicke, dicke Rechner mit ordentlichen Grafikkarten, die dann halt für jedesPixel einzeln, deine ganzen tausenden Pixeln halt das ausrechnen und dann haltdurch die, durch das Artnet hinmachen und da gibt's dann halt auch Artnet Controller.Die jetzt nicht so teuer sind, also es kostet dann schon ein,zwei hundert, aber die dann halt auf der einen Seite ein Ethernet Ding habenund auf der anderen Seite fallen dann halt zwei, drei, vier,fünf Anschlussmöglichkeiten für beliebige Chips an.Also die unterstützen auch die Standards, also die NeoPixel,aber auch andere, ja ich glaube im professionellen Umfeld werden auch eher dieSPI Chips benutzt, also die mit zwei Bussen, weil die nochmal.
roddi 3:49:08
Aber ist DMX, war doch ein Standard, was noch aus der, ich sag mal,der Glühbirn-Technik mit Leuchtfaden kommt, ne?
Björn Reimer 3:49:16
Du hast dann halt, machst dann halt ganz viel, hast dann super viel RGB-Kanäle,um das halt alles einzusteuern und DMX ist ja super slim, also das kannst duin ein paar wenigen, Ja, hast du wie Midi für Licht.Ja und das ist halt so organisch gewachsen,das war halt da, das benutzt man und ich meine du kannst halt auch deine,mit Artnet deine Steno DMX Leuchten damit steuern,ist halt ein bisschen Overkill, weil so viel brauchst du nicht,aber das ist halt sozusagen die Variante, die wenn man etwas hinzuverlässigwill und hast halt ne Bühne, Eventtechnik und sowas, dann so machen die das.Aber die haben, finde ich, halt den großen Nachteil, dass du halt alles zentralrechnen musst und was wir halt machen bei uns ist, bei uns wird ein Großteilder Rechnung, der Effekte und alles, was wir drauf machen, auch das Mapping,wird alles in den ESP's gerechnet, das können die locker ab.Und wir steuern zentral nur, schicken ein paar Kommandos,also wenn die jetzt irgendwelche Farben oder Parameter für die Effekte ändernwollen, das heißt, das ganze läuft stand alone, wir müssen nicht,weil diese Beleuchtung läuft ja bei uns dauernd, Müssen wir nicht ständig irgendeinenstarken Rechner da stehen haben, der das alles in Real-Time rechnet.
roddi 3:50:24
Ja, du hast auf einer Bühne natürlich andere Anforderungen. Du willst deinenzentralen Rechner haben,der einfach funktioniert und alles, was du dran anschließt, soll so weit dummsein, dass du es halt, wenn eins nicht geht, stöpselst ab, stöpselst ein anderes dran und fertig.Und am Ende der Show muss auch alles wieder eingepackt werden.
Björn Reimer 3:50:47
Ja genau und es gibt auch, also bei LED-Projekten gibt's sehr schnell den Simpsons-Digit-Effekt,also es gibt wirklich schon alles draußen, egal welche Idee man hat,es gibt im Internet irgendwelche Leute,die das schon mal gemacht haben oder noch besser, also das ist wirklich,also es gibt viele Ideen,viele gute Sachen, es gibt mittlerweile Millionen Videos von Leuten,die sich irgendwo LED-Streifen ins Zimmer hängen und dann reagiert das auf irgendwelcheBeats und das ist alles, also, Ja, mittelmäßig sozusagen ästhetisch durchdacht, sag ich mal.
roddi 3:51:23
Ich hätte mir irgendwann mal überlegt, ob man nicht tatsächlich so ein Fernsehsignalnimmt und so wie man das von früher kannte,wo in den Wohnzimmern immer je nachdem was gerade im Fernsehen lief,dann das Bild heller und dunkler wurde, dass man sowas einfach als Lichtinstallation macht.Würde man Fernseh gucken aber es ist halt nur Fake.
Tim Pritlove 3:51:45
Simulierte Fernsehteilnehmer sozusagen.
roddi 3:51:52
Ja für den Typen von der GEZ, dass der da mal klingelt und dann aber sehen sie hier ein Fernseher.
Tim Pritlove 3:52:01
Ich habe das Fernsehen gegen ein weißes Licht ausgetauscht und seitdem geht es mir viel besser.
Björn Reimer 3:52:06
Aber es gibt aber auch echt coole Projekte, also Matt Parker,den kennt ihr vielleicht, der hatte… Mit dem Weihnachtsbaum?Ja genau, das ist halt so… Ja stimmt.Der hat halt, also das ist halt auch ein interessantes Produkt,es gibt halt diese RGB Dinge auch quasi als Lichterkette, also die kann mansich auch einfach kaufen und dann steuern, da kann man auch schöne Sachen mitmachen.
Tim Pritlove 3:52:28
Ich glaube ich hatte das hier sogar schon mal vorgestellt, aber das ist trotzdemso grandios, das kann man immer wieder erwähnen. Was ist denn hier das Originalvideo?Hat der da noch so ein Follow-Up?
Björn Reimer 3:52:42
Ja, also das war halt ein Beispiel für schönes Mapping im dreidimensionalen Raum,also das war auch so ein bisschen in der Zeit als wir das bei uns gemacht haben,das ist halt ein interessantes Problem was sich dann mit einfachen Mitteln relativ gut lösen lässt.
Tim Pritlove 3:53:00
Man muss aber auch noch mal kurz an der Stelle einfach mal Matt Parker pluggen,der einfach ein grandioser Typ ist, also Mathematiker und Mathefreak sagen wires mal so, der halt diesen YouTube Kanal macht, Standup Math und der wirklichgenuin lustig ist, also der wirklich,Der braucht nur drei Worte sagen, also verschmitzteren Blick kann man auch kaumdrauf haben, wirklich tiefgehenden Witz, geile Themen und wie er Mathe irgendwieerläutert anhand tausend Sachen ist immer wieder grandios.
roddi 3:53:38
Am besten ist ja seine Kettenfontäne, an der immer noch die Leute scheitern,um zu erklären, warum das funktioniert.Da hat er so eine komische, kennst du diese Ketten, mit denen man früher soBadewannenstöpsel befestigt hat, diese Kugeln.
Ralf Stockmann 3:53:55
Kugeln verbunden mit so Sachen.
roddi 3:53:58
Und dann hat er da so ein Glasgefäß, wo so ein ganz langes Ding drin ist undnimmt es und zieht es so raus und aus irgendeinem Grund gibt es so einen Bogen.Also weit über dem Glasgefäß macht dieses Ding, das nennt er irgendwie ChainFountain und dann gibt es diverse andere YouTube Kanäle, die versuchen diesesPhänomen zu erklären und es gibt tausende Theorien.Genau, die Kettenfontäne, also das ist super. Ja, weird.Von dem ist es.
Björn Reimer 3:54:33
Ja und auf die Spitze getrieben haben sie es in Shenzhen vor einigen Jahren.Das ist auch vielleicht relevant für das Ende der Straße von Blinkenlights,um es auf die Spitze zu treiben.Da kommt übrigens ein Großteil der ganzen LEDs her. Die haben quasi eine ganzePhalanx an Hochhäusern mit LEDs außen bestückt und das dann alles gemappt über,ich schätze mal 20 Hochhäuser abgespielt.Das ist sozusagen das Ende der Fahnenstange sozusagen.Mehr Gehsinn, mehr Fläche ist halt besser.
Tim Pritlove 3:55:11
Oh Gott, als wir mit Blinkenleise angefangen haben, war das so das,wo es dann immer drauf hinausläuft.Ja und größer, schneller, bunter, weiter, mehr Pixel, ganze Oberflächen,Häuser, Stadtteile und so weiter. Die Chinesen machen das dann auch noch, because they can.Aber mal ehrlich, geil ist das nicht.Man guckt sich das so an und denkt sich so, ja okay gut, rein technisch gesehenist das jetzt ein Achievement.Aber Lebensgewinn für die Stadt kann ich dabei halt nicht so richtig ablesen.
Björn Reimer 3:55:46
Das ist einfach so Protzen.
Tim Pritlove 3:55:47
Cool wäre es, wenn man das in China halt dann auch genauso wie Blink lights,wenn die Leute dann ihre eigenen Filme drauf zeigen könnten.
roddi 3:55:56
Da fehlt dann der Content der Coole.
Tim Pritlove 3:55:58
Da fehlt der coole Content. Und der coole Content kommt halt nur durch Reduktion.Also weil wenn du erstmal mit Pixel und Farben anfängst, dann ist schnell allesvorbei und dann gibt's einfach nur noch Video und Porno.Und umso mehr du es reduzierst, umso mehr forderst du die Kreativität heraus.Deswegen war das erste Blinkenlights auch immer noch das beste Blinkenlights.Mit Abstand, weil einfach die Leute sich über jeden einzelnen Pixel Gedanken machen mussten.Wann kommt der, ist der überhaupt gesetzt und wenn ja wann und wie lange undmit wenig Raum viel Effekt zu erzielen ist gar nicht so einfach und da wirdman halt wirklich kreativ.Ja wir sitzen auch wieder an so einem Projekt jetzt hier fürs Camp.Können wir jetzt noch nicht so richtig viel zu erzählen,ist auf jeden Fall alles in der Entwicklung, sieht schon mal ganz gut aus,funktioniert auf jeden Fall schon, also ist schon was da und wenn das so mehrshape and form hat, dann werden wir da auch nochmal so ein bisschen fishing for content machen.Aber die Zeit ist noch nicht gekommen.Erstmal liefern denke ich mir.So machen wir mal den Block zu. Wo sind wir denn jetzt? Sind wir am Ende schon?
roddi 3:57:24
So ein bisschen oder?
Tim Pritlove 3:57:25
Ich denke schon. Wo ist überhaupt mein Controller?
Ralf Stockmann 3:57:28
Vier Stunden rum.
Tim Pritlove 3:57:30
Vier Stunden rum. Ich wollte ja eigentlich noch was zu Starlink erzählen,aber das können wir ja auch verschieben.Ah, hier ist er doch. Oder? Was denkt ihr?
roddi 3:57:45
Ja, wir müssen ja nicht jedes mal übertreiben.
Tim Pritlove 3:57:47
Ne, ne, das stimmt.Gut, dann übertreiben wir es mal nicht.Starlink-Thema, das machen wir nächstes Mal. Vielleicht mit Clemens hat er sowiesonoch einiges dazu zu erzählen und dann werden wir mal wieder unsere weiteren Erfahrungen teilen.Ist ja eigentlich auch ganz gut jetzt mit dieser Pause, man hat so viel Zeitsich mit Sachen zu beschäftigen, jetzt kann man richtig weit ausholen,man muss sich nur die Zeit dafür nehmen.So Björn, vielen Dank fürs dabei sein und naja, das war's. Was lachst du Roddy?
Björn Reimer 3:58:34
Noch eine Minute.
Tim Pritlove 3:58:35
Woist denn überhaupt meine Tröte hier? Ah hier hab ich noch eine.Ja genau, hier liegt auch noch eine. Willst du auch noch eine haben?Hier können wir zum Schluss nochmal irgendwie tröten.Ist es denn auch stereo? Das ist ja die große Frage.Gut insofern sag ich mal, das war's jetzt hier erstmal mit Freakshow und was haben wir jetzt gehabt?265 geht bald wieder weiter. Mal gucken in welchen Abstand wir hinkriegen,sieht nach vier Wochen aus, aber vielleicht auch nicht. Mal gucken,wir werden es rausfinden. Wir sagen tschüss!
Shownotes

47 Gedanken zu „FS265 Mansplaining as a Service

  1. Für intelligente Kritik v.a. am Hype um AI kann ich Gary Marcus empfehlen, er hat auch einen gerade publizierten Podcast „humans vs.machines“ (aber auch Bücher und Talks). Ist v.a. auch historisch interessant, weil er z.B. in der 2. Episode eine frühere Hype-Episode durchgeht mit den damaligen Exponenten (IBM watson). Klar, ist LLM und ChatGTP eine andere Nummer, aber ich fand es trotzdem interessant.

  2. Zur Frage, wie 2001 der Film und das gleichnamige Buch zueinander stehen, gibt es eine Primärquelle: In Vor- bzw. Nachwort der Bücher schreibt Arthur C. Clarke, dass er gleichzeitig am Buch und dem Filmskript gearbeitet hat. Der größte Unterschied zwischen Buch und Film ist der Planet, den sie ansteuern. Im Buch ist es Saturn, während der Film den Jupiter benennt. Dazu äußert sich Clarke im Vorwort zu 2010 (dem Buch, was nach 2001 folgte, und in dem das Buch auch den Planeten gewechselt hat, den die Mission angesteuert haben soll).

  3. Habe durch diese Folge erst von Nicolas seinem Tod erfahren, das hat mich getroffen. Ruhe er in Frieden und höre er auch weiterhin die Freakshow im Himmel. Ich vermisse die Tanten schon jetzt.

  4. ChatGPT hat noch nie eine Frage von mir richtig beantwortet. Da habe ich es mal mit einer Idee von Roddi Probiert. Allerdings habe ich vergessen da rein zu schreiben wie der Podcast heissen soll. Was mir noch nie aufgefallen ist das Konstanze wie im Teleshopping spricht…

    „Schreibe den Text für einen Podcast mit Holger Klein und Konstanze Kurz“

    „[Einleitungsmusik]

    Holger Klein: Hallo und herzlich willkommen zu einer neuen Folge unseres Podcasts! Hier ist Holger Klein und ich freue mich sehr, dass ihr wieder eingeschaltet habt. Heute habe ich eine ganz besondere Gästin dabei, Konstanze Kurz. Sie ist eine renommierte Expertin für digitale Sicherheit und Privatsphäre. Konstanze, schön dass du hier bist!

    Konstanze Kurz: Danke, Holger! Es ist mir eine Freude, hier zu sein und über dieses wichtige Thema zu sprechen.

    Holger Klein: Absolut! Digitale Sicherheit und der Schutz unserer Privatsphäre sind Themen, die uns alle betreffen. Konstanze, könntest du unseren Hörerinnen und Hörern einen kurzen Überblick geben, warum es so wichtig ist, sich in der digitalen Welt zu schützen?

    Konstanze Kurz: Natürlich, Holger! In unserer vernetzten Welt sind wir ständig mit Technologie und digitalen Medien umgeben. Wir teilen persönliche Informationen, erledigen Bankgeschäfte online und kommunizieren über verschiedene Plattformen. Dabei hinterlassen wir digitale Spuren, die von Dritten gesammelt und ausgewertet werden können. Der Schutz unserer Privatsphäre ist daher von entscheidender Bedeutung, um unsere persönlichen Daten und unsere digitale Identität zu schützen.

    Holger Klein: Das ist sehr wichtig, Konstanze. Aber wie können wir unsere Privatsphäre effektiv schützen? Gibt es konkrete Maßnahmen, die wir ergreifen können?

    Konstanze Kurz: Absolut, Holger! Es gibt einige grundlegende Maßnahmen, die jeder von uns ergreifen kann. Zum Beispiel sollten wir starke Passwörter verwenden, unsere Geräte regelmäßig aktualisieren und uns bewusst sein, welche persönlichen Informationen wir online teilen. Es ist auch ratsam, sich mit Verschlüsselungstechnologien vertraut zu machen und Tools wie VPNs zu nutzen, um unsere Internetverbindungen zu sichern.

    Holger Klein: Das sind großartige Tipps, Konstanze! Und wie sieht es mit dem Thema soziale Medien aus? Viele von uns nutzen Plattformen wie Facebook, Twitter oder Instagram täglich. Gibt es spezielle Ratschläge, um unsere Privatsphäre in diesen Umgebungen zu schützen?

    Konstanze Kurz: Auf jeden Fall, Holger! Bei der Nutzung sozialer Medien ist es wichtig, unsere Privatsphäre-Einstellungen zu überprüfen und anzupassen. Wir sollten uns bewusst sein, welche Informationen wir teilen und mit wem wir sie teilen. Es ist auch sinnvoll, unsere Freundeslisten regelmäßig zu überprüfen und zu überlegen, welche Personen Zugriff auf unsere Beiträge haben sollten. Und natürlich sollten wir skeptisch sein, wenn uns unbekannte Personen kontaktieren oder verdächtige Links oder Anhänge teilen.

    Holger Klein: Danke für diese wichtigen Hinweise, Konstanze! Abschließend möchte ich noch fragen, was du den Hörerinnen und Hörern mitgeben möchtest. Welche Botschaft möchtest du ihnen mit auf den Weg geben, wenn es um digitale Sicherheit und den Schutz unserer Privatsphäre geht?

    Konstanze“

  5. ChatGPT und verwandte modelle sehen keine einzelnen buchstaben sondern nur sogenannte Tokens die nach dem Prinzip des Byte pair encoding (BPE) vor dem Training des Modells gewaehlt werden. Ein einzelner Token ist typischer weise mehrere Buchstaben lang, aber die tatsaechliche laenge ist variabel. Darum kann ChatGPT keine Buchstaben zaehlen (zumindest nicht ohne weiteres).

        • a) ChatGPT weiss nicht explizit was es tun kann und ob und wie gut, es kann seine eigene Architektur nicht begutachten (so wie ein Mensch nichts ueber Architektur des eigenen Nervensystems weiss ohne es explizit zu lernen)
          c) durch diesen Zeilenumbruchsmodus zwingt sich ChatGPT mehr Tokens zu benutzen (und wahrscheinlich helfen newlines). Ich nehme an diesen Trick hat OpenAI explizit im RLHF teil des trainings GPT4 beigebracht.

          Hier kannst du sehen wie dein Text in Tokens zerlegt wird. (das ist eine offizielle Seite von OpenAI)
          platform[dot]openai[dot]com[slash]tokenizer

  6. Sehr schöne GPT Einordnung und prompt Engineering von Ralf. Interessant vielleicht noch: Schach wurde durch brute force Suche im Spielraum „gelöst“. Das ist kein KI Ansatz.

    Bei Go dagegen war der Durchbruch auch erstmal ohne KI aber unter Wegwerfen von menschlichem Design: man lässt zur Stellungsbewertung die aktuelle Partie 5 Mio mal mit zufälligen(!) Zügen zu Ende spielen und schaut wer gewinnt wie oft. Damit hatte man eine gute Bewertung von Stellungen und dann kam wieder das Durchsuchen des Spielbaums. Da gehen dann aber nur noch die Regeln ein, keine menschlichen Gedanken. Diese Programme waren besser als die meisten Amateure.

    Dann kam DeepMind und hat alles nochmal mit KI weiter optimiert. Aber schließlich auch ohne menschliche Partien. Die Programme nutzen nur die Regeln. (Trainingsdaten sind nur KI gegen KI Partien!)

    Bei Sprache / Text wird es wohl nicht ohne menschlichen Input gehen. Insofern bleibt die KI ein Papagei während die Go und Schach KIs wirklich das Regelwerk gemeistert haben, besser als es menschliche neuronale Netze (also Gehirne) können.

    Schön, dass es wieder Freakshow gibt :)

    • Deep Blue keine KI? Das ist umstritten. In Russel & Norvig: „AI, A Modern Approach“, dem wohl bekanntesten KI-Lehrbuch, werden auf intelligenter Suche basierende Problemlösestrategien auf 170 Seiten dargelegt.

  7. Thema „bei Twitter ist jetzt scheiße“:

    Ich hab gestern mal wieder den Blick in den Abgrund gewagt und musste feststellen, dass sie es jetzt scheinbar geschafft haben THREADS KAPUTT ZU MACHEN??!1?

    Ich wollte nen Thread (verfasst von einer BPoC und mit erwartbar „linkerer“ Einstellung), lesen und musste nach dem Eingangstweet erstmal an 15 Kommentaren von irgendwelchen rechten „50 Follower“-Randos mit gekauften blauen Haken vorbei scrollen, bevor der relevante Inhalt weiter ging.

    Falls das kein Glitch meiner Twitter App war sondern deren Ernst, würd ich schätzen, dass die Lichter da schneller ausgehen könnten als zuerst gedacht…

  8. Lieber Tim,

    ich war schon soweit das ich die Relevanz (für mich) der freakshow vergessen hatte. Nach der letzten Folge habe ich gedacht da muss sich noch was eingrooven.

    Aber dann kam diese. Endlich höre ich kein Beratersprech mehr der mir die AI erklärt, sondern endlich Eure Einordnung.

    Danke dafür

  9. Zum Thema LEDs:
    Da gibt es eine schöne Übersicht über Controller, libraries, diffuser Material, …
    http://awesomeledlist.com
    Das ist für Anfänger eher nicht geeignet (das ist keine Anleitung), wenn man aber schon etwas Erfahrung hat und für ein Projekt etwas spezielles sucht ist das ein guter Startpunkt.

  10. Ersteinmal schön dass es wieder die Freakshow gibt :-)

    Ich finde beim Thema K.I. den Film Ex_Machina (2015) super spannend und relevanter denn je. Gibt es auch gerade für 3,99 € im Apple TV Store, falls ihn jemand nachholen will.

  11. Danke für die tolle Folge!

    Zum Thema deepl und deepl write:
    Ich schreibe gerade meine Masterarbeit auf Englisch. Dabei habe benutze ich deepl und grammarly.com (wie deepl write) zur Formulierungshilfe und übersetzten. Ich muss sagen, ich bin ech begeistert, beide Tools vereinfachem das schreiben ungemein.
    Ich schreibe die Arbeit in Latex und benutze dafür Visual Studio Code. Für VS Code gibt es für deepl als auch grammarly Erweiterungen, die über ihre jeweiligen APIs gleich Vorschläge und Korrekturen geben. So kann ich ein Satz auf deutsch schreiben und per Tastenkombination gleich übersetzen lassen. Und gramarly verbessert meinen Schreibstil massiv.

  12. Schön das ihr wieder da seid!

    Ich habe hier auch vom Tod von Nicolas gehört, sehr sehr schade!

    Björn war eine schöne Abwechslung, gerne mehr von ihm.
    Ralf Stockmann hat ein Problem mit Andor, ich habe ein Problem mit Ralf Stockmann. Der Jar Jar Binks der Freakshow, wie einmal bitte Schneidezähne ziehen beim Zahnarzt…überflüssig und absolut unnötig :)!
    80% Redeanteil und zu allem etwas sagen müssen, kombiniert mit minutenlagen laaaangweiligen Monologen #gähn.
    Bitte dann doch lieber durch Monologe von Tim ersetzen, die sind doch sehr viel gehaltvoller oder noch besser Dennis, Hulk und Letty zurückholen :)!

    Grüße

    • Ralf Stockmann empfinde ich als absolute Bereicherung, da ich seine Beiträge inhaltlich sehr interessant finde und er sich meiner Meinung nach zudem eloquent ausdrücken kann.

      Wenn ich freiwillig an einem Podcast mitarbeiten würde und Zeit und Mühen investieren würde, würde ich mich über Deine Ausdrucksweise und Vergleiche ein bisschen wundern.

  13. Hier ist die meiner Meinung nach beste Erklärung auf YouTube, wie ChatGPT funktioniert. Das ist mit vielen Beispielen, vom Erfinder der Mathematica Software:

    Stephen Wolfram, What is ChatGPT doing… and why does it work?

    https://www.youtube.com/live/flXrLGPY3SU

    Es gibt auch einen Artikel dazu:

    https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/

    aber ich finde das YouTube Video verständlicher.

    Wie ChatGPT neue Texte erfinden kann, die es so noch nicht gab, ist leicht erklärbar: es wird nicht immer das wahrscheinlichste nächste Token ausgewählt, sondern es wird ein zufälliges aus den Top 20% oder so gewählt. Deswegen kommen auch Fantasienamen heraus, wenn man nach den Namen der Moderatoren von Podcasts fragt, und auch jedes Mal andere Namen, wenn man erneut fragt :)

  14. Zu RGB kann ich noch bedingt etwas sagen, da ich mein Wohnzimmer auch mit LED-Stripes ausgerüstet habe als Hauptlicht/Ersatz. Aber nicht _so_ steuerbar auf LED-Niveau weil mir da der Anwendungsfall auch irgendwie fehlt. Insbesondere sind die Preise von diesen gemischten LED-Stripes, die alles können (RGBW bzw RGBWW) einfach zu teuer für die Lichtausbeute die man eigentlich haben will.
    Ich habe also zuerst Alu-Profilschienen (breitere, so daß 3 Stripes reinpassen) mit milchweißer Diffusor-Einsatz gekauft und im Wohnzimmer auf etwa 2,30m Höhe ringsherum angeschraubt. Da habe ich nun 4 Seiten (es ist kein direktes Rechteck als Grundriss aber so halb) einzeln mit unterschiedlichen Stripes bestückt.
    Oben habe ich reinweiße Stripes reingeklebt, bzw eigentlich WW, die ich zwischen Kaltweiß und Warmweiß unterschiedlich dimmen kann. Dann 3 polige Verkabelung bis dahin, für jede Seite extra, also 4 Kabel. Davon habe ich dann je 2 an einen Schaltkästchen gebaut und kann jetzt rechts+links und vorne+hinten separat schalten, bzw eben dann auch durchgehend alle 4.
    Darunter habe ich 4 einfache RGB-Stripes (schwach Lumen im Vergleich zum weiß) geklebt, die kann ich nun je Seite unterschiedlich schalten. Also 4x4polige Kabel je Seite.
    Und weil es im Endeffekt dank dunklerer Raumfarbe doch etwas dunkel sein _kann_, hab ich noch einen einzelnen 2pol Warmweiss-Stripe als 3. vorn und hinten geklebt, das sogenannte Putzlicht. ;)
    Und nun misch ich mir meine Farbe der Beleuchtung, wie ich das möchte. Ich möchte doch nicht in Telekom-Pink oder Porno-Rot sitzen (sowas sehe ich auch in Youtubevideos…), aber ich reichere mein Weiß eben mit leicht blau oder leicht grün an, indem die RGB-Stripes dann halt vollständig grün leuchten, und die weißen halt weiß…. die RGBW-LEDs bekommen so eine Farbabstufung eben nur schwer hin, insbesondere dann in der nötigen Helligkeit….
    Mir fehlt abseits des Spieltriebs eben der Anlass wirklich auf dedizierte steuerbare LED zu gehen. Im Matrixverbund gehen dann sicher Bilder und tolle Effekte – aber als Raumbeleuchtung eher nicht brauchbar. Und ja, diese Schaltkästen können dann auch Blinken und Farbwechsel und Blinken mit Farbwechsel und weiteren Horror, was als Späti-Aufmerksamkeitserregung sicher gut funktioniert, aber trotzdem scheisse aussieht. Und dabei will ich doch nicht TV gucken.
    TV mache ich übrigens nun mit seitlichem Licht, da die vordere oder hintere Stripes sich im TV spiegeln, trotz dessen, daß sie ja hoch im Raum sind. Seitlich geht das prima. Gut daß ich das so einzeln schalten kann. So ist es auch dunkel genug (dimmbar) für „Kino“, und man hat trotzdem noch etwas Licht, um eben nicht über alles zu stolpern…
    Finde ich gut so und bleibe dabei… weniger ist mehr.

    Im Bad ist auch ein einzelner Stripe ringsherum als Abschluß oberhalb des Fließenspiegels meine einzige Raumbeleuchtung. Funktioniert auch gut. Ist dann auch ein isolierter LED-Stripe, der einen Plastiküberzug überall hat und damit wasserdicht (Dusche und so) ist. Das sind mit etwa 120W Raumbeleuchtung (über die gesamte Länge) als LED enorme Leistungen, dann ist es aber auch entsprechend schön hell. Ich mag kein Funzellicht. Das ist sogar 24V, damit die Stromstärke wieder etwas günstiger ist.

    In ein paar Jahren guck ich mir aber nochmal an, was ich vielleicht dann für Stripes reinkleben könnte, vielleicht gibt es dann doch bessere Angebote. Die Schienen sind ja da und können bleiben.

      • LED-Stripes scheinen eben noch eine deutlich geringere Lichtausbeute zu haben wie LED-Panels oder LED-„Glühbirnen“. Von der Helligkeit ist es eher wie ein 40W LED-Panel, das ich woanders habe.

  15. Dass es Bluesky aktuell nur als App gibt, stimmt nicht ganz: Auf https://staging.bsky.app/ ist eine Weboberfläche erreichbar (soll bald umziehen auf https://bsky.app/ ohne „staging“). Generell sind Bluesky und das zugrundeliegende AT Protocol noch in einer sehr early Beta und viele wichtige Features werden noch gebaut bzw. designed. Deshalb lässt das Dev-Team aktuell nur so wenige Leute drauf. Das Dev-Team ist selbst sehr (inter)aktiv auf Bluesky und erzählt ganz offen über den aktuellen Zustand und wie es weiter gehen soll. So auch im Bluesky-Blog: https://blueskyweb.xyz/blog. Dass es aktuell nur den einen Server gibt, hängt auch vor allem mit dieser frühen Entwicklungsphase zusammen. Federation wird halt auch noch designed (siehe https://blueskyweb.xyz/blog/5-5-2023-federation-architecture). Bluesky selbst ist eine Public Benefit LLC, was für ein weniger ausgeprägtes Profitstreben spricht. Ansonsten ist der Vibe dort sehr gut, von der UX her ist es einfach 1000x besser als Mastodon.

  16. Hmmm, hmmm, hmmm… jetzt habt ihr extra den Björn als Elixir/Erlang-Experten eingeladen – ich war schon gespannt wie der Programmierparadigmendisput weiter ausgefochten wird – und dann: nichts.

    So geht das nicht. Tim ist in Folge FS264 in seinem naiven Unwissen XD ungerechtfertigt über das objektorientierte Sprachparadigma hergezogen; das Thema kann noch lange nicht durch sein. Btw., so wie Roddi es schon letztens erwähnte, die Eigenschaft der Vererbung ist für OOP nicht ausschlaggebend, sondern eher „message-sending“, „late binding“, „dynamic linking“, „reference by name“, mit Zeitstempel versehene Kontexte oder Nutzung einer virtuellen Maschine, um hier mal unvollständig zu bleiben.

    Die Ursprungsidee von OOP war es, dass jedes Objekt eine eigenständige Computereinheit sein sollte bzw. ein Automat. All diese Automaten kommunizieren über Nachrichten (messages) in einem Objekt-Netzwerk. Praktisch ähnlich der Funktionsweise der Endpunkt-Computer des heutigen Internets. Und es verwundert auch nicht, das genau diese Grundlagen des Internets aus dem Dunstkreis der Erfindergruppe rund um Alan Kay im Xerox Parc Palo Alto erdacht wurden.

    Weiterhin sind „Objekte“, so wie sie gemeint sind, nicht einfach nur irgendwelche Speicherbereiche, die Daten aufnehmen können und denen Verhalten über Methoden zugeordnet ist, sondern über die Zeit evolvierende Objekte – deshalb diese Bezeichnung. Jedes Objekt ist eine virtuelle Maschine in sich selbst. So gesehen ist der Ansatz den Java, C++ und ähnlichen imperativen Krüppelsprachen darbieten, eher mit Cargo-Kult zu umschreiben.

    Der Umstand, warum dieses Wissen darüber nicht weit verbreitet ist, liegt darin, dass sich ein durch ökonomische und ideologische Zwänge ergebener realisierter Strang – ja Leute, wir leben im Kapitalismus – von imperativer Hardware durchgesetzt hat (Intel), der für Sprachparadigmen wie objektorientiert, funktional-listenorientiert, petrinetzorientiert, fuzzyorientiert oder auch logischorientiert maximal umständlich ist. Die Hardware die wir alle flächendeckend nutzen müssen ist eine Lüge. Sie ist nur eine geringe schlechte Auswahl von möglicher Hardware. Wir müssen diesen Intelmist (ja auch Apple-Silicon/Arm) benutzen, weil es den maximalen Profit ermöglicht und nicht die maximale Computing-Freiheit.

    Und wenn Tim von seinem Erlebnis des Dioden-blinkenden Modelcomputers in diesem UK-Museum erzählt, weiß er leider nicht, dass dies nur eben dieses schlechteste Model von Möglichen Rechenmaschinen ist, von denen die man sonst noch bauen könnte.

    So müsste ein besserer Computer z. B. in der Lage sein, jegliche(!) Hardware-Subsysteme samt Status zu einem Zeitpunkt zu virtualisieren und gegebenenfalls über das Internet auf andere Computer zu übertragen. Oder eine Anzahl „n“ von Computern schließt sich zusammen, um eine andere Anzahl „m“ von Computern zu simulieren; und all das ohne Geschwindigkeitsverlust, wie es leider heutzutage von den imperativen (Intel/Apple/Arm)-Maschinen uns vorgegaukelt wird: „Mi-mi-mi, das geht nur in einer VM und die ist langsam.“ Nein ist es und muss es nicht! Die angeblich notwendige Trennung zwischen Hard- und Software muss neu bewertet werden: Hardware ist somit nur eine zu einem Zeitpunkt ‚eingefrorene‘ Software.
    Wir hatten alle leider das große Pech, das die ersten Computer von klischeehaften Ingenieuren gebaut wurden und nicht von elegant denkenden Theoretikern wie Alonzo Church und John McCarthy.

    Ein sehenswertes Video mit Vortrag und Diskussion zwischen den Erfindern von Smalltalk und Erlang empfehle ich jedem interessierten: „Joe Armstrong & Alan Kay – Joe Armstrong interviews Alan Kay“ https://www.youtube.com/watch?v=fhOHn9TClXY
    Das Video „Object-Oriented Programming is Bad“, das Tim in den Shownotes von FS264 verlinkt hat, ist dagegen, nebenbei gesagt, die dümmste oberflächlichste Scheiße, die Youtube dazu zu bieten hat.

    P.S.: Ich bin gespannt, wie lange sich die neue Generation von KI mit den von menschlichen Begrenztheiten gebauten Computern und deren Sprachen herumschlagen möchte.

    • Well, that’s just your opinion man.

      Die These, dass OOP im wesentlichen durch Attribute wie „message-sending“, „late binding“, „dynamic linking“ und „reference by name“ beschrieben werden könnte, halte ich wiederum für sehr steil.

      Message Sending ist das, was Smalltalk gemacht hat, aber kaum eine andere „OOP“-Sprache übernommen hat. Die anderen drei von Dir genannten Attribute sind simple Eigenschaften von vielen Sprachen bzw. eher dem darunter liegenden Linkersystem und ich kenne keine Definition von OOP in denen diese Eigenschaften eine Rolle spielen.

      OOP wird im Allgemeinen vor allem durch Eigenschaften wie Klassen, Vererbung, Kapselung und Polymophie beschrieben.

      Klassen, Vererbung und Kapselung sind dabei die von mir vor allem kritisierten Eigenschaften, weil sie am Ende des Tages mehr Zwang auferlegen als Freiheiten und Flexibilität schaffen. Diese Eigenschaften zu nutzen ist mehr eine Verpflichtung als Erlösung.

      Polymophie ist wiederum ein sehr erstrebenswertes Ziel, wird aber von OOP meist selten erreicht und kann auf anderem Wege (z.B. Mulitiple Dispatch oder Pattern Matching) sehr viel effizienter umgesetzt werden.

      Und daher habe ich die Frage gestellt: wozu OOP? Welche Eigenschaften ist wirklich hilfreich und wofür? Darauf hat hier bisher noch keine eine Antwort geliefert und auch Deine Ausführungen verirren sich in abstrusen Hoffnungen auf bessere „Hardware“. Das mag wünschenswert sein, hat aber mit der OOP-Diskussion nichts zu tun.

      Übrigens gab es diese schon mal: es waren die Lisp-Machines, die optimiert waren für die Ausführung von funktionalem Code mit dem Ziel KI zu erforschen.

      https://de.wikipedia.org/wiki/Lisp-Maschine

      Aber was weiß ich schon mit meinem „naiven Unwissen“ :)

  17. Ich habe meine Bachelorarbeit über Künstliche Intelligenz als Figur im Film geschrieben und 2001, A.I. und HER analysiert. Die mündliche Verteidigung letztes Jahr hat ChatGPT bereits unterstützt und für gute Unterhaltung gesorgt.

  18. Ralf sagt im Podcast zum Thema Konfidenzintervalle bei ChatGPT / LLMs:

    „Und das ist glaube ich eine Sache, die man in LLMs eigentlich sehr gut abbilden könnte. Und das habe ich schon im November nicht verstanden, warum sie das nicht schon vom Start weg gemacht haben, dass sie Formulierungen reinbringen wie „ich glaube“ oder „ich bin mir einigermaßen sicher, dass“. Weil, durch dieses so „welchen Weg gehe ich jetzt mit meiner Wortwahrscheinlichkeit“ müsste sich eigentlich eine Konfidenz relativ gut berechnen lassen …“

    Das hat mich ein wenig stutzig gemacht. Die Wortwahrscheinlichkeiten spiegeln ja die Wahrscheinlichkeit wider, mit der bestimmte Wörter in einem gegebenen Kontext auftreten. Diese Wahrscheinlichkeiten stehen demnach in keinem Zusammenhang damit, ob die generierte Tokenfolge wahr, richtig, korrekt oder gut begründet ist.

    Oder habe ich den Punkt falsch verstanden?

    • In dem Video von Stephen Wolfram (schon sehr fordernd aber m.E. lohnend) wird es so gezeigt: ChatGPT (und generell LLMs) nehmen nicht immer die wahrscheinlichste „Route“ durch die Tokens (Wörter/Assosiationsketten) sondern haben einen Zufallsfaktor eingebaut, der auch mal Position 2, 3 etc. zieht. Wenn das nicht der Fall wäre, würden die Texte schnell in endlos-Schleifen drehen (das zeigt er wirklich cool live).
      Ich leite daraus ab: wenn man etwa nach zwei Positionen fragt – Homöopathie sinnvoll oder Humbug? Dann gibt auch ChatGPT4 einen endlosen sowohl als auch und man muss ja alles respektieren Sermon von sich. Weil eben im Internet auch viel Dummfug aus der Schwurblerecke dazu steht.
      Es sollte aber möglich sein, entlang der Wahrscheinlichkeiten der Token-Ketten zu berechnen, bei wie vielen Durchläufen man statistisch zu welchen Ergebnissen kämme bei einer A/B Entscheidung. Und dann sollte sich ein recht stabiler Wert berechnen (und ausgeben/verbalisieren) lassen in der Form „95% aller mir bekannten wiss. Studien und Argumente kommen zu dem Schluss…“

      Vielleicht sehe ich das aber auch zu optimistisch, aber so mein derzeitiges Verständnis, schaue aber gerade auch nochmal das Video durch.

      Hier just von heute ein kleines Experiment zu Homöopathie von mir:

      https://chaos.social/@rstockm/110349136984365428

      Danke auf jeden Fall für die Nachfrage. Ich fürchte, ChatGPT wird in sehr kurzer Zeit als „Welterklärungsmaschine“ genutzt/verstanden werden, und da ist es völlig egal ob das mit der Technik bezweckt war oder nicht – Menschen werden es tun. Darum müssen wir gut verstehen, was sinnvolle Auswege/Strategien dazu sind.

  19. an einem Erfurter Gymnasium sind die Lehrer auf die Idee gekommen, ChatGPT zu fragen ob ein vorliegender Text von ChatGPT geschrieben wurden um Cheating von Schülern aufzudecken.
    Bei 4 Arbeiten behauptet ChatGPT das die KI den Text verfasst hat. Bei 2 der Arbeiten ist es bei den entsprechenden Arbeiten für die Lehrer klar das diese Schüler die KI genutzt haben, die anderen 2 Treffer würden Schüler betreffen die bisher nicht durch Schummeln aufgefallen sind.
    Wie erklärt man den Lehrern den Begriff „false positiv“?
    Es gibt keine weitere Information, ich würde erwarten das ChatGPT antwortet „ja ich habe diesen Text am DD.MM.JJJJ verfasst … und an folgende IP ….. ausgegeben“ und nur wenn das Datum in den Zeitraum von Stellen der Aufgabe und Abgabe passt, würde ich überhaupt darüber nachdenken das Ergebnis ernst zu nehmen.
    Andererseits können die Lehrer auch einen größeren Teil von Texten (deren Autoren bekannt sind) abfragen und eine Statistik erstellen wie oft ChatGPT behauptet den Text verfasst zu haben. …

  20. Was ist so schlimm an Twitter?
    Mastodon hat so ziemlich das Thema verfehlt. Dezentrale Technik ist nur sinnvoll, wenn es Zensur verhindern kann und nicht aufbaut. Zensur kann Twitter besser, was man ja während der Pandemie gesehen hat.

  21. Die Aussage, dass LLMs Kindern aus bildungsfernen Haushalten große Chancen bietet (ca. bei 2:30), ist im Allgemeinen bestimmt korrekt. Dass es daher generell zu mehr Bildungsgerechtigkeit führt, halte ich für nicht ganz so eindeutig. Um es platt zu sagen: hat eine Familie, die sowieso am Existenzminimum lebt, noch am Ende des Monats die 20€ für die Pro-Version von ChatGPT? Das was für reiche Menschen lächerlich klingt, ist für die Familien, die davon sehr profitieren würden, vielleicht nicht erschwinglich. Zudem es weitere hilfreiche KI Tools mit monatlichen Kosten geben wird und auch schon gibt. (Eine gute Lösung sehe ich hier nicht, außer vielleicht dass die Schule in irgendeinem Maße die Anwendungen zur Verfügung stellt.)
    Ich würde mir echt wünschen, dass es ernstzunehmende Konkurrenz zu Microsoft, Google und den anderen Kollegen aus BigTech geben wird, es nicht (wie bei sovielen Produkten) eine Monopolisierung gibt und wir nicht das Kapitel „die Reichen werden reicher, die Armen werden ärmer“ immer und immer wiederholen.
    LG Martin

  22. Moin moin,
    danke für die tollen Einlicke in ChatGPT etc. :)
    Eig. wollte ich diesen Kommentar bei LogbuchNetzpolitik droppen, aber hier passt er aktuell besser.
    —–
    Quellen first:
    Ich bin auch über das „stochastic Parrot“-paper gestoplpert – über diesen Podcast:
    https://www.buzzsprout.com/1004689/12640803
    Die Gesprächpartnerin ist die (mit-) Authorin des papers, Emily M. Bender („Department of Linguistics at the University of Washington and the Faculty Director of the Computational Linguistics Master’s Program“)
    Der Podcast wird ’spannend ab Minute 20′

    Es wird primär über 2 Paper gesprochen:
    Stochastic Parrot –> https://dl.acm.org/doi/10.1145/3442188.3445922
    Octopus Paper –> https://aclanthology.org/2020.acl-main.463/
    —–
    Ich finde eure Schlussfolgerungen bzgl. des ‚Stochastic Parrots‘ besser. ;-)
    Bzgl. des Octopus Papers – der Octopus (ChatGPT) kennt die realwelt nicht – würde ich mitgehen, dass diese aufgrund der menge an gefüttertel Text ..
    .. vernachlässigbar wird.
    —–
    Warum schreibt ich dies hier?
    Wäre ich @Tim, dann würde ich gerne mit dem Co-Author des Octopus-Papers über die aktuelle Entwicklung reden (Saarland University, Dept. of Language Science and Technology).

    Vllt. ergibt sich ja eine Möglichkeit dazu :) ;-)

    VG und weiter so

  23. Björn hat vorhin folgenden Satz in den Äther geschleudert, unter dem ich mir überhaupt nichts vorstellen konnte:

    „Das heißt, man hat quasi wieder ein Template im Backend, was man rendert, was man dynamisch updatet und dann hat man in diesem Framework ein Diff-System, was sich das HTML-Diff ausrechnet und das über Websockets an den Client pusht.“

    Mit etwas Zureden hat mir das freundliche ChatGPT nachstehenden, in Verständlich übersetzten Text generiert:

    „Entschuldigung für die vorherige knappe Antwort. Der Satz bezieht sich auf die Verwendung von Elixir, einer funktionellen Programmiersprache, insbesondere im Zusammenhang mit der Erstellung von Webanwendungen.

    Der Satz beschreibt, dass im Backend (also auf der serverseitigen Logik) ein Template existiert, das verwendet wird, um dynamische Inhalte zu generieren. Dieses Template wird gerendert, was bedeutet, dass es in eine konkrete HTML-Ausgabe umgewandelt wird. Das Template kann als eine Art Vorlage betrachtet werden, die Informationen enthält, die zur Erzeugung von HTML-Inhalten benötigt werden.

    Das „Dynamische Updaten“ bezieht sich darauf, dass das Template in der Lage ist, sich während der Laufzeit zu verändern, basierend auf bestimmten Ereignissen oder Benutzerinteraktionen. Dadurch können die Inhalte der Webseite aktualisiert werden, ohne dass die gesamte Seite neu geladen werden muss.

    In diesem speziellen Framework (das nicht näher spezifiziert ist, aber möglicherweise Phoenix, ein Webframework für Elixir, sein könnte) gibt es ein sogenanntes „Diff-System“. Ein Diff-System berechnet die Unterschiede zwischen dem aktuellen HTML-Zustand und dem aktualisierten HTML-Zustand, um nur die erforderlichen Änderungen zu identifizieren. Dadurch können nur die geänderten Teile der Webseite übertragen werden, anstatt die gesamte Seite erneut zu übertragen.

    Die Kommunikation zwischen dem Server und dem Client (also dem Webbrowser des Benutzers) erfolgt über Websockets, die eine bidirektionale Kommunikation ermöglichen. Das bedeutet, dass der Server über Websockets die aktualisierten Inhalte an den Client „pusht“, also aktiv an den Client sendet, sobald sie verfügbar sind. Dadurch kann der Client die Webseite ohne manuelles Aktualisieren aktualisieren und die neuesten Änderungen anzeigen.

    Zusammenfassend lässt sich sagen, dass der Satz beschreibt, wie Elixir in einem spezifischen Framework verwendet wird, um ein Template im Backend zu rendern, dynamisch zu aktualisieren und die Änderungen über ein Diff-System und Websockets an den Client zu übertragen. Dadurch können Webanwendungen effizient und interaktiv aktualisiert werden, ohne die gesamte Seite neu laden zu müssen.“

    Die KI lebe hoch, hoch, hoch! :)

  24. Zum Thema Rassismus / Vorurteile etc in chatgpt ist doch eigentlich sonnenklar. Etwaige Haltung in der source wird natürlich auch übernommen wie sollte das auch vermieden werden. Es gibt ja keine Moral Instanz in der Software oder ?

    Erinnert mich an Amazon die mal versucht haben ihre Einstellungsgespräche per Algorithmus zu automatisieren, blöderweise wurde mit den aufgezeichneten Einstellungsgesprächen trainiert dh Frauenfeindlichkeit und Rassismus wurden mit trainiert.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.