Freak Show
Menschen! Technik! Sensationen!
https://freakshow.fm


FS265 Mansplaining as a Service

Star Wars — x-hain - Nicolas Semak — Feedback — Elixir— ChatGPT und die AI-Revolution — LED-Steuerung

Und weiter geht's mit der wilden Fahrt. Heute widmen wir einen dicken Teil der Sendung der schon lange ausstehenden Diskussion rund um die sich schnell breitmachenden "intelligenten" Systeme und wir machen einen Reality Check und klappern dabei auch die popkulturellen AI-Vorlagen der Science Fiction mit ab. Dazu noch mal ganz viel Feedback zu Euren Anmerkungen rund um Social Media und Programmierung und eine ausführliche Einführung in die Steuerung von LED-Modulen. Viel Spaß.

https://freakshow.fm/fs265-mansplaining-as-a-service
Veröffentlicht am: 5. Mai 2023
Dauer: 4:03:19


Kapitel

  1. Intro 00:00:00.000
  2. Begrüßung 00:04:09.921
  3. May the Fourth 00:06:55.873
  4. Björn Reimer 00:29:52.779
  5. Nicolas Semak 00:40:51.425
  6. Mastodon und BlueSky 00:46:19.709
  7. Nebenläufigkeit und Parallelität 00:58:19.524
  8. Elixir in der Praxis 01:06:22.381
  9. Elixir Nerves 01:22:21.114
  10. ChatGPT und die Anwendung von AI 01:28:24.267
  11. LED-Steuerung 03:14:15.894
  12. Ausklang 03:57:16.280

Transkript

Tim Pritlove
0:04:10
roddi
0:05:00
Tim Pritlove
0:05:03
roddi
0:05:05
Tim Pritlove
0:05:06
roddi
0:05:09
Tim Pritlove
0:05:10
Ralf Stockmann
0:05:19
Tim Pritlove
0:05:21
Ralf Stockmann
0:05:30
Tim Pritlove
0:05:37
roddi
0:05:40
Tim Pritlove
0:05:41
Björn Reimer
0:06:26
Tim Pritlove
0:06:27
Ralf Stockmann
0:06:53
Tim Pritlove
0:06:55
Björn Reimer
0:06:57

Ja.

Tim Pritlove
0:07:02
Björn Reimer
0:07:06
Ralf Stockmann
0:07:19
Björn Reimer
0:07:27
Tim Pritlove
0:07:33
Ralf Stockmann
0:07:36
Björn Reimer
0:07:52
Tim Pritlove
0:08:13
Ralf Stockmann
0:08:15
Björn Reimer
0:08:21
Ralf Stockmann
0:08:29
Tim Pritlove
0:08:37
Ralf Stockmann
0:08:40
Tim Pritlove
0:08:44
Ralf Stockmann
0:08:58
Tim Pritlove
0:09:01
Ralf Stockmann
0:09:04
Tim Pritlove
0:09:12
roddi
0:09:16
Tim Pritlove
0:09:18
Ralf Stockmann
0:09:22
Tim Pritlove
0:09:23
Ralf Stockmann
0:09:27
Björn Reimer
0:09:27
Tim Pritlove
0:09:30

Ja ich weiß, ich bin ja auch alt. Aber da weiß ich noch genau wie es mir vorher ging und wie es mir danach ging. Und ich glaube alle die das gemacht haben damals, also es ist sehr schwer das sozusagen glaubhaft nachzuerzählen, aber es war wirklich so man ging halt rein und vorher war halt die Welt so und dann gingst du halt rein, dann hast du diesen Film geguckt, dann kamst du wieder raus und die Welt war neu. Alles war anders. Also mit Star Wars hat irgendwie sozusagen die offizielle Zeitrechnung neu begonnen, es war irgendwie das Jahr Null gefühlt so, du hast sofort gemerkt so, okay, nichts ist mehr so wie es war, alles ist jetzt neu definiert, irgendwie Star Wars hat uns alle komplett den Kopf verdreht und dieser ganze Craze war absolut nachvollziehbar, weil es war einfach diese Zauberwelt, diese Märchenwelt, die sie da geschaffen haben, dieser Spaß und das war alles so neu. Aber ich weiß noch, was hat sich der Film abgemüht mit Science Fiction? Also da gab es wirklich ganz schlechte Phasen, es gab natürlich auch noch ein paar Hochphasen, da werden wir auch noch drauf kommen und so weiter, aber ganz zweifelsohne hat Star Wars halt so ein komplett neues Kapitel eingeläutert, das kann lustig sein und das kann irgendwie Abenteuer sein und alles und dann noch diese Effekte, die für die damaligen Verhältnisse einfach unfassbar waren, Es war einfach eine Illusion, die da abgezaubert wurde, wie auch immer. Auf jeden Fall, Star Wars war dann bam, bam, bam und nichts war mehr so wie vorher.

Ralf Stockmann
0:11:04
Tim Pritlove
0:11:21
Ralf Stockmann
0:11:47
roddi
0:13:00
Ralf Stockmann
0:13:37
roddi
0:14:30
Ralf Stockmann
0:14:31
Tim Pritlove
0:14:33
roddi
0:14:53
Tim Pritlove
0:15:02
Ralf Stockmann
0:15:04
roddi
0:15:07
Ralf Stockmann
0:15:10
Tim Pritlove
0:15:26

Ja, zurecht. Weil er hat, ich finde er hat nicht schnell genug loslassen können und auch so seine Redos von 4,5,6 war ja auch totale Katastrophe. Hier mit irgendwie Handshot first, also dass er wirklich auch noch in den Ablauf eingreift und dann auch noch seine, ich meine ich rechne es ihm ja hoch an, dass er immer nach Perfektion strebt so, aber er ist dann halt wirklich in dieses Uncanny Valley der Special Effects reingefallen und hat irgendwie zu einem Zeitpunkt wo er dachte jetzt ist schon alles richtig geil und wenn ich das jetzt mache dann werden die Filme richtig toll, ist aber genau, hat so richtig in den Scheißetopf von, ne ist noch nicht so geil wirklich so reingegriffen und dadurch halt die Filme verunstaltet. Wir hatten ja hier schon mal eine ausführliche Diskussion, du wirst sie sicherlich verfolgt haben, wie ich dich kenne Ralf, zu dem Thema, mit irgendwelcher Reihenfolge muss man das hören. Die Machete Order natürlich. Genau die Machete Order auf der einen Seite, aber auf der anderen Seite auch diese Special, das weiß ich nicht mehr ganz genau wie die Ausgaben hießen, ich hab sie hier groß gepriesen, jetzt weiß ich es grad nicht mehr, aber es gibt ja verschiedene, es gibt ja sozusagen eine Version aller Filme, die zusammengesetzt sind aus sozusagen allem Material was es gibt, wo sozusagen die original, der original Szenenverlauf ist mit den besser gemachten Verbesserungen reingenommen, alles irgendwie in HD und so weiter und da kann man sich High Star Wars so richtig geil angucken so, das ist halt einfach qualitativ das beste was man kriegen kann ohne dass es die Story verholt ist. Und vor allem ist halt ganz viel Jar Jar Binks rausgeschnitten worden und ehrlich gesagt, Jar Jar Binks kann ja noch ertragen, aber wo ich wirklich die Galle kriege, was ich das Schlimmste finde überhaupt in diesem ganzen 1-2-3-Epos, ganz schlimm in eins und auch ganz schlimm in zwei, Diese unsäglich langweiligen Diskussionen zwischen Obi-Wan und, äh, hier, äh, junger Skywalker, wie heißt er?

Ralf Stockmann
0:17:29
Tim Pritlove
0:17:31
Ralf Stockmann
0:17:46
Tim Pritlove
0:18:06
Ralf Stockmann
0:18:12
Tim Pritlove
0:18:25
Ralf Stockmann
0:18:50
Tim Pritlove
0:18:54
Ralf Stockmann
0:19:14
Tim Pritlove
0:19:58
Ralf Stockmann
0:20:02
Tim Pritlove
0:20:37
Ralf Stockmann
0:20:42
Tim Pritlove
0:20:46
Ralf Stockmann
0:21:52
Tim Pritlove
0:22:20
Ralf Stockmann
0:22:37
Tim Pritlove
0:22:39

Trainspotting kam danach, also Shallow Grave war sozusagen wo er entdeckt wurde und danach kam irgendwie Trainspotting und aus diesem ganzen schottischen Kollektiv sind ja so einige Stars hervorgegangen, jetzt wollen wir nicht so weit wegkommen von Star Wars, auf jeden Fall finde ich Ewan McGregor, also es tut mir wirklich leid Ewan McGregor, ich mag dich sehr gerne, aber sie haben dir eine kaputte Rolle gegeben, die ist einfach von der Regie zerstört worden und finde ich auch sehr wenig rausgeholt. Und dann, deswegen fand ich dann Andor wieder so geil, weil Andor, wenn du sagst so die ersten drei Folgen geguckt und irgendwie hä, so ja, das ist wieder so etwas was sich ganz langsam aufbaut so und dann sehr schön den Anfang von allem zeichnet. Also das ist ja das, was da drin steckt. Da steckt der Anfang dieser gesamten Rebellion drin. Warum eigentlich? Wie? Wer? Und so. Und das finde ich ganz toll. Und Mandalorian... Ist ein gutes Beispiel dafür, dass man einen kriegen kann, also erstmal Mandalorian, geilster Soundtrack der nicht von John Williams ist, also dieser Schwede, Hammer Thema super umgesetzt trägt sich jetzt schon über drei Serien wird immer evolviert ganz da haben sie wirklich einen super super super Komponisten gefunden, Schwede oder Finne oder sowas, ganz komischer Name, Langasör, irgendwie sowas. Das ist geil und ich meine klar mit Baby Yoda haben sie es natürlich alle gekriegt so. Das war einfach der Cuteness Faktor hoch 10, aber auch da ist es halt so, Ja ok, ihr müsst also jetzt eine Folge in dieser Serie füllen und jetzt gibt es ja so ein Abenteuer, was soll der Name? Die Mission of the Week. Genau, die Mission of the Week, wo nichts übrig bleibt für den Rest der Geschichte und das finde ich dann wieder so schade, dass man da irgendwie so diese Zeit ein bisschen, das ist zwar irgendwie ganz gute Unterhaltung und so, aber am Ende, ok, wir haben jetzt 30 Minuten eine Story gesehen, die in keinem der Previously on Mandalorian auch nur eine Sekunde reingeschnitten wird, so wichtig war das jetzt. Und das finde ich dann wiederum.

Ralf Stockmann
0:24:58
Tim Pritlove
0:25:30
Ralf Stockmann
0:25:31

In Star Wars. Sie haben die Stars rausgenommen aus Star Wars. In Andor. So. Also Star Wars, das war immer die Kombination, das ist eigentlich ein Actionfilm, aber du hast eben dieses ja, Sky is the limit und es ist Eskapismus und tolles Design und man hat auch Spaß und das ist alles raus und du bist nur noch im Krieg, nur noch die Wars sind übrig. So und was macht der Krieg mit den ganzen Menschen, wie funktioniert dieses Unrechtsregime, wie funktioniert jetzt das Imperium von innen. Die Szenen finde ich natürlich fantastisch, wenn da also der Secret Service vom Imperium irgendwie gezeigt wird und was die wiederum alle für Binnenquerellen haben. Aber Spaß ist das halt alles nicht. Es sind halt keine Stars mehr drin. Also nicht Stars im Sinne von die Sterne da oben am Himmel halt und das finde ich hängt dem schon so ein bisschen nach. Plus dieser Erzähl-Rhythmus, dass du immer diese Dreierblöcke hast. Du brauchst zwei Folgen Exposition bis du dann wieder irgendwie einen Höhepunkt bekommst. Die sind dann ziemlich gut, die dritte Folge ist gut, die sechste ist gut und dann nach hinten raus ziehen sie die Taktung generell zum Glück ein bisschen hoch. Aber diese Folgen zwischendurch die sind schon auch, aber du hast dann da wirklich auch in Folge 1, 2 und ich glaube auch in 4 und 5 hast du halt auch Szenen wo Leute irgendwie am Mittagstisch sitzen und Alltag besprechen, das will ich in Star Wars nicht sehen, echt nicht. So und das hat auch kein irgendwie, das kommt dann auch nicht im nächsten Previously. Also ich hätte auch gesagt Andor kannst du gut auf die Hälfte runtercutten. Der ganze Mon Matma Plot fand ich total überflüssig, da passiert eigentlich gar nichts. Es gibt eine lange Besprechung mit den Kulturdeliktanten, da kann man sich das alles nochmal in Länge anhören, warum ich da so Schwierigkeiten mit habe und was ich jetzt bei Mandalorian wirklich nicht verstehe ist halt so der Übergang von zweiter Season zu dritter Season. Ganz tolles Ende, zweite Season, Krogu, also Baby Yoda geht weg und Luke nimmt ihn mit, fantastischer Auftritt, episch, alle geweint. So und die erste Folge, Season 3, ach ja da ist er übrigens. Wenn ihr euch fragt wieso, ja da müsste Boba Fett gucken. Und dann guckst du Boba Fett und siehst okay da sind halt zwei Folgen Mandalorian reingearbeitet und ich verstehe natürlich was der Gedanke dahinter ist, die wollen halt jetzt so ein Mando-Verse aufziehen, so wie es halt irgendwie, ansonsten Disney ja auch mit den ganzen, na wie heißt das andere große Franchise? Nein, Guardians of the Galaxy und Marvel, das Marvel-Universe, wo alles mit allem verwoben ist und dann irgendwie wieder in großen Kulminationsfilmen zusammengetragen wird und sowas. Genau so eine Schiene wollen die da halt bringen. Du kannst doch nicht ernsthaft von Leuten erwarten, dass sie zwischen der zweiten und der dritten Season irgendwo oder erstmal woanders nachgucken müssen, wie jetzt der Hauptplot um den Hauptcharakter irgendwie weiterging. Ja. Ich muss nochmal gucken, ich glaube sie bringt es noch nichtmals in irgendeine Previously Sequenz, was jetzt eigentlich mit Luke los war und dass er sich entscheiden musste, will er jetzt ein Lorianer werden oder will er jetzt ein Jedi werden und natürlich entscheidet er sich für sein Papa.

Tim Pritlove
0:28:33
Ralf Stockmann
0:28:33
Tim Pritlove
0:28:34
Ralf Stockmann
0:28:36
Tim Pritlove
0:28:45
Ralf Stockmann
0:28:48
Tim Pritlove
0:28:54
Ralf Stockmann
0:29:16
Tim Pritlove
0:29:42
Björn Reimer
0:30:01
Tim Pritlove
0:30:02
roddi
0:30:09
Tim Pritlove
0:30:12
Björn Reimer
0:30:17
Tim Pritlove
0:30:21
Björn Reimer
0:30:21
Tim Pritlove
0:30:45
Björn Reimer
0:31:04
Tim Pritlove
0:31:24
Björn Reimer
0:31:28
Tim Pritlove
0:32:05
Björn Reimer
0:32:07
Tim Pritlove
0:32:10
Björn Reimer
0:32:17
Tim Pritlove
0:33:35
Björn Reimer
0:33:41

Genau, das fängt an von Leuten, die sich um Story erstmal kümmern, also das ist so eine unserer Spezialitäten, dass wir Spiele bauen, die sehr stark auf Geschichte basieren. Also in den Spielen werden Geschichten erzählt, wir releasen auch immer neue Geschichten, also neue Kapitel zu den Spielen. Dann die ganzen Game-Designer, die Artists, die Künstler, 2D, 3D, das alles rum. Dann natürlich Software-Entwicklung, im Client-Unity, da haben wir eine Menge Leute. Dann im Backend, LXC, dann aber auch hinten rum Data, Data-Science, das ist eine riesen Preise-Palette und dann noch, das ist noch gar nicht Publishing und alles mit drin. Und das summiert sich. Und heutzutage muss man extrem Aufwand betreiben, um sich um die Erwartungen des Marktes zu kümmern. Ja, da verdiene ich mein Geld, aber das ist nicht alles. Neben zwei Kindern, die mich sehr viel noch beschäftigen, mache ich in meiner Freizeit versuche ich einen Hackspace zu organisieren. Genauer gesagt den X-Sign, hier im Nachbarbezirk, im schönen Friedrichshain. Das war auch eine interessante Reise. Das war gar nicht so geplant, dass das so groß wird. Wir haben damals angefangen in einem kleinen Ladenlokal in der Grünberger Straße und ja mittlerweile sind es… Wann ist damals? Vor sieben Jahren, ziemlich genau jetzt. Und jetzt sind es 130 Mitglieder, die da hinkommen und von Software, aber auch Hardware, Making, also wir sind relativ breit aufgestellt, alles dort machen. Also wir haben auch eine Nähecke, 3D-Drucken, Laserkarten, die üblichen Sachen. Und ja, auch über Alex Hirwitt da geredet, unter anderem.

Tim Pritlove
0:35:32
Björn Reimer
0:37:19
Tim Pritlove
0:38:16
Björn Reimer
0:38:40
Tim Pritlove
0:39:06
Björn Reimer
0:39:11
Tim Pritlove
0:39:18
Björn Reimer
0:39:46
Tim Pritlove
0:40:23
Björn Reimer
0:40:29
Tim Pritlove
0:40:38
Ralf Stockmann
0:41:51
Tim Pritlove
0:43:35
Ralf Stockmann
0:43:36

Das wurde nicht veröffentlicht, das wird auch nie veröffentlicht. Weil es hat auch nur so semi gut funktioniert. Also es war ein total zivilisiertes Gespräch, ich glaube und das hätte er vielleicht unterschrieben, dass wir am Ende glaube ich von unseren Positionen nicht wirklich irgendwo abgerückt sind und dann konterkarierte das etwas so die eigentliche Formateidee der ganzen Geschichte. Ja also das ist schon finde ich ein harter Schlag, weil gerade einer der ersten, die halt sowas wie ein Label, ja so klar Meta-Ebene gab es natürlich auch schon, ich weiß du hast damals etwas die Augenbraue gelupft, als es dann hieß so das erste deutsche Podcast Label geht an den Start mit 4000 Herzen und die Meta-Ebene gab es zu dem Zeitpunkt schon wie viele Jahre, aber das ist so die Medienerzählung und das deutsche Podcasttum, das ist ja sowieso eine Geschichte voller Missverständnisse. 47 ist er nur geworden. 47 Schlaganfall. Das gab es in einer der Berliner Zeitungen, suche ich gleich nochmal raus für die Shownotes, da gab es eine kurze Würdigung nochmal und ich habe ihn in der Tat viel lieber gehört, als dass ich mit ihm diskutiert habe. Also absolut legendär, das würde ich auch gerne gleich in die Shownotes nochmal reinwerfen, das finde ich sein Interview in den Elementarfragen mit Rainer Langhans, also damals Kommune 1 und ich bin ja so ein verhinderter Alt-Hippie, ich bin ja sauer, dass ich nicht bei 68 dabei sein konnte, Mangelsalter. Und was er da mit dem ja doch völlig verschrobenen und schon irgendwie doch in seiner sehr sehr eigenen Welt lebenden Rainer Langehans, was sie trotzdem da für ein Gespräch, ich glaub zwei Stunden oder sowas geht das ungefähr, zusammen kriegen, ganz toll. Das kann man sich, finde ich, immer noch wunderbar anhören. Für mich eine ganz persönliche Sternstunde des deutschen Podcasts.

Tim Pritlove
0:45:29
Ralf Stockmann
0:46:43
Tim Pritlove
0:47:14
Ralf Stockmann
0:47:15
Björn Reimer
0:47:59
Ralf Stockmann
0:48:03
Tim Pritlove
0:48:06
Ralf Stockmann
0:48:09
Tim Pritlove
0:48:32
Ralf Stockmann
0:48:38
Tim Pritlove
0:48:43
Ralf Stockmann
0:49:04
Tim Pritlove
0:49:09
Ralf Stockmann
0:49:34
Tim Pritlove
0:49:38
Ralf Stockmann
0:49:41
Tim Pritlove
0:49:43
roddi
0:50:48
Tim Pritlove
0:50:50
Ralf Stockmann
0:50:57
Tim Pritlove
0:51:07
Ralf Stockmann
0:51:09
Tim Pritlove
0:51:22
Ralf Stockmann
0:53:01
Tim Pritlove
0:53:27
Ralf Stockmann
0:53:29
Björn Reimer
0:54:26
Ralf Stockmann
0:54:31
Björn Reimer
0:55:04
Tim Pritlove
0:55:08
Ralf Stockmann
0:55:09
Björn Reimer
0:55:11
roddi
0:55:14
Ralf Stockmann
0:55:16
Tim Pritlove
0:56:16
Björn Reimer
0:56:37
Tim Pritlove
0:56:40
Ralf Stockmann
0:56:55
Tim Pritlove
0:57:09
Ralf Stockmann
0:57:12
roddi
0:57:37
Björn Reimer
0:57:45
roddi
0:57:47
Björn Reimer
0:57:55
roddi
0:57:57
Tim Pritlove
0:58:20
Ralf Stockmann
0:58:29
Tim Pritlove
0:58:34

Was erlaube Tim so und ja ich hab das mit Interesse gelesen, was da alles so gemeint wurde zu meinen Auslassungen über das objektorientierte Paradigma und so weiter und es gab ja da auch diverse längliche Kommentare, die irgendwie ja versucht haben ein wenig diesen Case zu machen, was man immer gerne so hört mit so ja aber in meiner Sprache kann ich das auch alles machen und so schlimm ist es ja nicht und das was ihr da macht in euren funktionalen Programmiersprachen das ist ja am Ende auch nur OOP also gehabt alle möglichen Darstellungen, muss aber zugeben, dass mich relativ wenig davon wirklich nennenswert überzeugt hat was da so kam und vor allem gab es ein paar interessante Missverständnisse und das Kern, eins der auffälligsten Missverständnisse war und das habe ich glaube ich auch nicht so ausgeführt. Einmal nochmal vielleicht worum es mir ging und was das auch konkret bedeutet. Also ich habe ja die ganze Einlassung in das Thema, Okay, poemieren und wo stehen wir denn sozusagen mit Poemiersprachen heutzutage und warum ich auch der Meinung bin warum Objektorientierung relativ wenig bietet für das was wir heutzutage so benötigen? Und es einfach nur deshalb gemacht wird, weil es da ist und weil alle davon reden, war ja das Problem mit der Nebenläufigkeit. Und Nebenläufigkeit ist von vielen auch so ein bisschen unter diesem Aspekt von Parallelität wahrgenommen worden. Also man hat ja so dieses Ja-Multichor und da heizt dann alles parallel und du meinst ja auch, Audio ist ja eine schlechte Anwendung, weil das kann man ja nicht parallelisieren und so weiter. Das mag alles richtig sein, dass das in einzelnen Fällen nicht parallelisierbar ist, aber Parallelisierbarkeit ist nochmal ein ganz anderes Thema. Und ein schönes Gleichnis, was ich gefunden habe, ist, also der Unterschied zwischen Nebenläufigkeit und Parallelisierung ist in etwa der. Parallelisierung ist, wenn fünf Leute parallel ein Ikea-Bett zusammenschrauben. Jeder sein eigenes Bett. Das ist so volle Parallelisierung. Nebenläufigkeit ist, wenn fünf Leute ein Ikea-Bett zusammenschrauben. Und dann hängt es sehr viel damit zusammen, wer hat schon die Schrauben ausgepackt, ist die Tüte schon aufgemacht, wo liegen denn jetzt die Schrauben, wann brauchen wir denn die Schrauben ganz genau, in welcher Reihenfolge machen wir das, wo legen wir das Holz hin, wenn wir gerade nicht dran arbeiten müssen, wer jetzt da drüber gestolpert ist, ist das jetzt das Richtige, hab ich das verwechselt, oh scheiße ich muss nochmal in den Nebenraum, wo sind denn jetzt nochmal die Schrauben, hab ich überhaupt das richtige Werkzeug. Man verliert so viel Zeit in diesen kleinen Übergängen, in diesen Kanten, wo die eine Arbeit in die andere Arbeit übergeht und wo vor allem verschiedenste Akteure sich unterschiedlichen Teilproblemen zuwenden müssen und die teilweise, Ja jetzt könnte ich sagen parallel, nebenläufig sind, also ich kann die Schraubentüten öffnen.

roddi
1:01:52
Tim Pritlove
1:01:59
Björn Reimer
1:02:59

Ich würde das vielleicht ein bisschen verfeinern, weil es geht da zwar auch um das Funktionale, aber vielmehr noch um das, was in der Erlangenwelt OTP heißt. Also das ist eine Art Framework, um aktorbasierte Programmierungen zu machen. Also man denkt von Grund auf nur an Aktoren, die sich gegenseitig Nachrichten schicken. Das hat jetzt erstmal direkt nicht so viel mit funktional oder objektorientiert zu tun. Es gibt zum Beispiel auch in der JVM-Welt in Skala Acker, die ein ähnliches Modell machen. Mit Objekt orientiert und da das Enablen, das hat aus meiner Sicht, das habe ich auch lange gemacht, auch Probleme, weil die JVM nicht darauf ausgelegt ist. Und das ist der große Vorteil von Erlang aus meiner Sicht. Das ist, das ganze System ist von Grund auf aufgebaut, um ein Aktoren-System und auch wenig anderes zu unterstützen. Das fängt vom Debugging an, aber auch wie das ganze System startet, die Error-Trails und wie auch mit Messages und so weiter umgegangen wird. Es gibt auch Implementationen in anderen Sprachen, also ich bin jetzt neulich über Ergo gestolpert, das ist quasi OTP in Go nachgebaut, auch eine interessante Entwicklung. Aber das würde ich mal sagen ist auch aus meiner Erfahrung das, was im Kern diese Nebenläufigkeit, aber jetzt kommt es auch die Parallelität sehr enabled, also sehr viel möglich macht, weil man halt Den State, den man hat, der in einem Akto gehalten wird, automatisch, den Zugriff darauf automatisch serialisiert durch die Nachrichten, die reinkommen, die dann auch verarbeitet werden. Das erleichtert, wenn man es richtig baut, auch das Testen und so weiter. Das ist, glaube ich, der Kern und auch da die Sprache und das Ökosystem auf viel verzichtet, ist man sozusagen auch gezwungen, in bestimmten Arten und Weisen zu denken. Man denkt, wo hat man State, wo ist der in meiner Anwendung, Applikation verbaut? Und davon geht's los, weil das baut man in seine Aktoren rein oder Genserver, wie es in Erlang beziehungsweise Alexir genannt wird. Und darauf aufbauend baut man dann halt seine Anwendung. Das hat auch sehr viele Vorteile, wenn man Ressourcen hat, die von verschiedenen Stellen gebraucht werden, dann kümmert sich ein spezieller Prozess nur um diese eine Ressource. Und Leute können anfragen, bekommen zweifelne Antwort, aber auch die Ressource, die hat für sich immer eine Ordnung, in der das kommt. Das heißt, man geht einer bestimmten Art von Race Condition aus dem Weg, wenn man nicht aufpasst, schafft man sich andere Probleme, wenn man 15 Aktoren hat, die sich in komplizierten Art und Weise Nachrichten schicken, kann das auch zu unvorhersehbaren Konstellationen führen, das stimmt auch. Aber erstmal grundsätzlich ist das ein Modell was auch für das was wir machen sehr sehr gut passt und eine ganze Klasse an Fehlern erstmal ausschließt. Auch so ganz einfache Sachen wie Memory Management. Also du hast halt da deine Aktoren, alles was da drauf gebaut wird stirbt zusammen mit dem Aktor. Das heißt wenn du so ein Request hast der reinkommt, Da macht er was für den Spieler oder was auch immer die App macht und dann stirbt der Prozess, nimmt alles Memory und so mit sich mit und vorbei ist es. Das heißt dann ist das alles vergessen. Wenn er crasht, ist nur das eine kaputt. Das sind einfach so Grundprinzipien, die da sehr, sehr helfen bei Systemen, die sehr parallel und auch nebenläufig arbeiten.

Tim Pritlove
1:06:22
Björn Reimer
1:06:34
Tim Pritlove
1:07:58
Björn Reimer
1:08:03
roddi
1:08:11
Björn Reimer
1:08:13

Ja, so kann man das natürlich sagen, also wenn wir andere Sachen machen würden, da gibt es viele Anwendungsbereiche, wo das nicht das Perfekte wäre, das stimmt natürlich. Aber ich, also vor allen Dingen auch der Bereich, der erweitert sich gerade mit Alex hier. Also eine Sache, die wir jetzt haben, also wir haben auch sehr viele, ich nenne es mal Admin Interfaces. Also Interfaces, wo Leute, die irgendwas mit dem Spiel machen, mit den Backends interagieren, von uns intern, was mit den Servern machen wollen und dort, da benutzen wir seit einiger Zeit Liveview. Das ist so ein neues Paradigma der Webentwicklung, sage ich mal. Also so ein bisschen. Es hat ja angefangen mit Static Generated HTML, das war so das Klassik PHP wie wir es kennen, du hast auf eine Form geklickt oder einen Link und dann hat sich was neu gerendert über Templates im Backend. Dann war das natürlich nicht dynamisch genug, wir wollten sehr viele Dinge tun und da ging es halt bis hin zu diesem Single Page App mit JavaScript, wo man quasi nur noch einen riesen Application lädt und Live View ist so ein bisschen der Weg in der Mitte. Man muss dort, man rendert wieder Seiten im Backend und hat eine JavaScript-Komponente im Client, die quasi die Diffs nur ins Frontend rendert. Das heißt, man hat quasi wieder ein Template im Backend, was man rendert, was man dynamisch updatet und dann hat man in diesem Framework ein Diff-System, was sich das HTML-Diff ausrechnet und das über Websockets an den Client pusht. Das ist ein sehr, sehr guter Mittelweg für einige Anwendungsbereiche, wo man dynamische und auch sich ständig updatende HTML Seiten haben will. Also man wird damit jetzt nicht Google Maps entwickeln oder sowas, aber sehr viele dynamische Sachen kann man halt besonders auch sehr schnell entwickeln. Dashboards zum Beispiel. Das haben wir massenweise und gerade halt auch schnell und auch dynamisch kann man da sehr viel und schnell machen und das ist auch so eine Sache, die wir getestet haben und das hat uns halt einen ganz neuen Horizont erschlossen, weil wir auch gerade im Backend halt immer, wir haben halt irgendwelche Frontends gebaut, aber eigentlich wollten die Leute Backend machen und dann braucht man diesen ganz anderen Mindset, da muss man erst eine Javascript Pipeline aufbauen, das ist ja auch eine ganz andere Sache. Das hat ja auch seine Eigenheiten, das Ökosystem, ich sag's mal so. Dann fängst du an da den State, also es gibt ja auch genug coole Anwendungen, die damit geschrieben werden, aber es hat halt auch Probleme, gerade wenn man einfach nur ein bisschen dynamisches Dashboard schreiben will und dafür eignet sich das halt perfekt, weil du halt dann auch wieder im Backend hast du für jede Website oder jeder View, der aufgebaut wird, einen Aktor im Backend, Der hält das virtuelle DOM für diesen einen User und da kannst du halt im Backend über Event und sowas, wie du das halt dann auch mal deine Applikation aufbaust, dieses virtuelle DOM updaten und du hast dann halt das Live-Reframework, was dafür zuständig ist oder was dann den kleinen Ansicht, was der Nutzer im Browser sieht, halt für dich updatet. Und das ist halt auch wieder sehr gut widergespiegelt in LX hier und der ganzen, ja man muss sagen in der Beam, also der Virtual Machine von Erlang mit diesem Aktormodell und was das kann. Dazu ist natürlich in der ganzen Architektur von Erlang dieses Aufrechterhalten von tausenden, hunderttausende Millionen aktiven Netzwerkverbindungen so ein bisschen so ein Heimspiel. Also das ist das was es kann. Und das heißt da kann man gerade diese Dinge auch mit abdecken und mittlerweile wird dieses Paradigme von Liveview auch von anderen Frameworks, also von anderen Sprachen auch benutzt, also in der Ruby Welt wurde sowas nachgebaut, es gibt mit Livewire auch sogar was von PHP, da gibt's eine lange Liste, in Go gibt's auch was. Und gerade bei Ruby, also sind die darüber gestolpert, dass halt zum Beispiel, dort kann nicht so mit Prozessen umgegangen werden, das funktioniert einfach nicht, das war auch tatsächlich eine der Motivationen von Chris McCord, also das ist der Gründer oder der Autor des großen Webframeworks Phoenix, der hat das probiert in Ruby zu bauen und ist dann gescheitert. Und dann führte eins zu anderem und Jahre später gab es dann halt Phoenix. Gab auch noch andere Gründe, aber das ist eine der Geschichten, die er erzählt. um mal diese Idee von Live.io umzusetzen, weil die Idee gab es schon viel, aber das... Man braucht so ein bisschen die Foundations von Alexia, um das wirklich gut und auch in großen Skalen umsetzen zu können.

Tim Pritlove
1:12:40

Also Live.io ist wirklich eine große Sache in dieser Alexia Welt. Also generell wenn man so in die Alexia Welt reinschaut, da hast du halt erstmal so die Sprache so in unison mit dem Erlangen Ökosystem, Das ist das, was da so generell erstmal die Foundation ist für das Grundinteresse. Das ist so das, was alle primär dahin zieht. Dass du diese Stabilität hast und dass du eben dieses Betriebssystem quasi in deiner Sprache hast. Dass du so eine konkrete Vorstellung hast von Prozessen und das sind alles so First Class Objekte in deiner ganzen Sprache sind. Aber dann das zweite große Ding ist halt dieses Phoenix Web Framework, was halt einfach das Entwickeln von Webseiten einfach super einfach macht. Also das hab sogar ich hingekriegt. Ich hab keine Ahnung von Webdevelopment, aber das ist einfach zu naheliegend und wenn man erstmal die anderen Prinzipien drin hat, dann ist das mehr oder weniger so ein Abfallprodukt. Also man kriegt einfache Webseiten sehr sehr einfach hin. Und dann dachte ich so, oh ja, dann gibt's ja noch dieses Liveview und das ist jetzt bestimmt voll kompliziert und dann stellt man fest so, ne, gar nicht, das macht dann sogar noch komplexere Anwendungen sehr einfach, weil du auf einmal es nur noch quasi mit einem Aktionsort zu tun hast, also alles befindet sich auf dem Server und der Server hat einfach eine klare Vorstellung davon, was auf dem Bildschirm auf der Webseite ist. Und ich weiß nicht, ich hab den Vergleich letztes mal schon gebracht, aber ich sag's nochmal, das ist im Prinzip so ein bisschen die Wiedergeburt des Unix-Terminals. Also so wie du früher unter Unix eine Anwendung gemacht hast, die so im Unix Betriebssystem Multi-User lief und das beste Beispiel ist... So wenn du immer guckst, okay, Programmiersprachen und Frameworks, was ist so die Standard-App, die so als erstes Beispiel geliefert wird, da hast du dann so jahrelang Taschenrechner gehabt, so mit Force und so weiter, bis das dann irgendwann nicht mehr ging, dann war's irgendwie die To-Do-App, das hält sich irgendwie auch noch bis in die Neuzeit. Und bei Liveview ist dann so immer so dieses, ah jetzt machen wir mal ein Multi-User-Chat. So ein Multi-User-Chat, das wirfst du so mal eben so aus der hohlen Hand. Du hast alles da, was du brauchst, diese ganze Kommunikation, mehrere User kommunizieren, jeder hat seinen eigenen View, alles updatet sich in Realtime, das ist so in Liveview ist das einfach, da musst du noch nicht mal groß drüber nachdenken, wenn du das halbwegs verstanden hast, um das da so hinzuwerfen. Und ich finde das sagt schon so einiges darüber aus auf welcher Komplexitätsebene man hier überhaupt einsteigt, ohne dass es, also Komplexität im Sinne von des Ergebnisses, was du aber relativ einfach mit den Bordwerkzeugen angehen kannst und von da startest du dann sozusagen in komplexere Welten rein und das ist wirklich ein komplett neues Paradigma. Man muss auch dazu sagen, es löst nicht alle Probleme von Web-Anwendungen, also wenn du, du hast ja schon gesagt, so Google Maps, also alles was so highly local interaction hat, ne, wo du so viel unmittelbare lokal anwendbare Events hast, also direkt Objekte, ähm. Bewegen muss und viele Operationen hast, die halt so unmittelbar im Code des Javascript-Interpreters im Browser laufen, ohne jetzt Serverinteraktion zu haben, aber in dem Moment wo das was du siehst primär eigentlich auf dem Server existiert und so ein shared state ist, Dann wird's wiederum sehr einfach mit Liveview solche Anwendungen zu machen und das kann man sich auf jeden Fall mal anschauen, das kann viele sehr komplexe Setups, wo man mit, ja jetzt brauchen wir hier so eine Single Webpage App und React und tralalala, damit das irgendwie alles eine gewisse Fluktuizität hat und dann müssen wir noch ein Protokoll machen und dann haben wir noch unsere Datenbank und GraphQL und so weiter, um was relativ einfaches zu bauen. Und sowas kannst du mit Liveview eigentlich da beiseite fegen und sagen so nee scheiß drauf, das machen wir einfach alles im Server und diese schnellen Updates in der Webseite, die pushen wir halt einfach von hinten da rein und dann passt das schon. Also das ist schon eine interessante Welt die sich da auftut.

Björn Reimer
1:17:09
Tim Pritlove
1:17:13
roddi
1:17:14
Tim Pritlove
1:17:19

Und was nicht heißt, dass du kein JavaScript zur Anwendung bringen kannst. Also in diesem LiveView Framework hast du halt so ein JavaScript Framework, in dem du einfach nur noch sagst, hier füge mal das JavaScript ein, was man braucht, um X zu machen, um irgendwas zu toggeln oder so. Und das wächst die ganze Zeit so an. Schade ist noch, dass man, wo es wirklich noch eine Grenze gibt, dass man noch nicht das so targeten kann, dass man sagen wir mal LXJ-Code richtig im Browser auch laufen lassen kann. In den Kommentaren gab es auch einen Verweis auf so ein Talk von F sharp über über F sharp, das ist so diese Microsoft Funktional Sprache die so in diesem C sharp dot net Ökosystem drin ist, also F sharp ist so zu C sharp so wie Scala zu Java sag ich mal ganz so in etwa ja in etwa. Und ich hab mir den Talk angeschaut, weil der wurde in den Kommentaren gepostet mit dem Hinweis der würde ja zeigen, dass man da auch mit objektorientierten Paradigmen irgendwie was anfangen kann. Ich hab mir den Talk angeschaut aber auch nur festgestellt, dass er eigentlich auch gesagt hat, ja ne wir machen nur Objektprogrammierung, wir machen aber nicht Objektorientierung, weil Objektorientierung ist nämlich Mist und die Idee von Objekten und dann haben wir halt diese Dot-Syntax, die finden halt alle so toll. Und das ist halt auch der einzige Grund warum man das immer macht, weil die Leute es halt gewohnt sind eine gewisse Syntax zu sehen. Aber in diesem F-Sharp, deswegen erwähne ich das jetzt gerade, die haben nämlich die Möglichkeit, das heißt ich hab vergessen wie das dann heißt, quasi aus F-Sharp-Code unmittelbar JavaScript-Code zu erzeugen.

Björn Reimer
1:19:13
roddi
1:20:19
Björn Reimer
1:20:29
Tim Pritlove
1:21:51
Björn Reimer
1:22:12
Tim Pritlove
1:22:20
Björn Reimer
1:22:24
Tim Pritlove
1:23:42
Björn Reimer
1:23:43
Tim Pritlove
1:24:09

Aber zu NERVs kann man vielleicht nochmal ein paar Worte sagen weil das ist nämlich so eine der interessanten, von mehreren interessanten Entwicklungen in diesem ganzen Elixier Öko System ist um halt den Reach noch ein bisschen zu erweitern. Also da merkt man schon, dass über Phoenix, das Webframework und eben speziell auch über Livewire erweitert sich gerade der Einsatzrahmen doch erheblich. Also es dringt sozusagen in Bereiche vor, in die Erlang bislang überhaupt nicht reinkam. Und NERVS ist halt auch so ein Ding weil es eben quasi eine bequeme Runtime eröffnet auf so Embedded Devices. Läuft ja nicht nur auf dem Pi sondern es läuft auch noch auf dem Beaglebone und anderen aber das sind im Wesentlichen so die Plattformen die unterstützt werden. Und wenn man sich das halt baut, dann sagt man halt im wesentlichen so hallo ich habe ein paar Versionen was auch immer drei vier so mach mir mal eine Firmware und dann kompiliert er quasi ein komplettes Linux, Aber so total strip down auf die 20 MB, die du schon gesagt hast, also wirklich so das absolute super minimale Linux, was du benötigst, nur um eine Elixier, also eine Erlang Runtime auf dem System zu fahren. Brennt dir das dann sozusagen direkt in so ein Image und das schreibst du dann einfach auf eine SD-Karte, steckst rein, schaltest das Ding an und dann bootet der irgendwie da rein und dann kannst du da sofort irgendwie mit SSH drauf und kannst irgendwie deinen Code zum Laufen bringen, sagst aber hier ist meine App, die starte mal und dann läuft das so. Soweit so unbeeindruckend, das coole ist, dass es dann halt schon auch darum wiederum so ein Ökosystem gibt, wie zum Beispiel Nerves Hub, wo du dann so eine Software hast, wo alle deine Devices, also du hast jetzt irgendwie ganz viele von diesen Dingern, Dann hast du immer das Problem, du willst die Firmware aktuell halten, du willst irgendwie gucken was machen die, laufen die gerade, was ist damit und so, liegen irgendwo alle irgendwo rum, haben zwar alle irgendwie Internet, aber überall SSH und gucken und was ist denn damit und sich eine Mail schreiben lassen und so weiter, da wirst du ja irgendwie bekloppt. Dann kannst du halt diesen Nerves Hub nehmen und dann können sich diese Geräte dort anmelden und du hast so einen Ort, eben diesen Hub, wo du all deine Devices siehst, du siehst was online ist, was offline ist und wenn du dann eine neue Firmware hast, dann wird die automatisch eingespielt, du kannst auch Firmware Updates über SSH einzeln einspielen, aber dieses ganze Management und dann wird's auf einmal interessant, man hat jetzt nicht vielleicht 50 Türen, die man so administrieren muss, aber man kann das natürlich für jeden Scheiß verwenden. Und dann hast du eben wieder diesen Vorteil von dem Erlang-System, dass es halt so super stabil ist und dass du einfach den Code so on the fly ändern kannst, neue Firmware drauf, Software-Update. Zur Laufzeit musst du nicht wirklich was runterfahren der Code wird einfach ausgetauscht und dann läuft das irgendwie weiter und du hast immer so alles so im Überblick und das ist irgendwie eine relativ starke Bewegung in diesem ganzen LXDR Ökosystem und dann gibt's noch so ein paar andere Sachen auch für andere User Interfaces, Scenic ist etwas was sich dann in diesen Embedded Devices auch so als User Interface, API anbietet, noch so ein paar andere Entwicklungen also da ist auf jeden Fall eine ganze Menge am Laufen also wer da mit IoT rum baut findet da eine Menge.

Björn Reimer
1:27:37
Tim Pritlove
1:28:19
roddi
1:28:28
Tim Pritlove
1:28:32
Ralf Stockmann
1:29:03
Tim Pritlove
1:29:05
Ralf Stockmann
1:29:18

Ja in der Tat ist es mir ein Anliegen, um mal gleich die Latte hoch zu legen. Es ist glaube ich in der Tat überhaupt wirklich der Grund warum ich hier sitze. Weil als du mich gefragt hast so hm, Freakshow, wäre das nicht mal was? Wäre vom Vierteljahr meine Reaktion gewesen, oh anstrengend und arbeitet in Arbeit aus und ob wir uns da vertragen und so weiter. Aber es geht einfach nicht mehr, weil wir müssen über AI und Chat-GPT und dieses ganze Thema reden und vielleicht auf eine andere Art und Weise als es da draußen in 53.000, Blogbeiträgen und Postings und sonst wie passiert. Vielleicht kurz zu mir, wer spricht und warum maße ich mir an, jetzt überhaupt hier so ein Thema zu moderieren? Ich programmiere selber keine Machine Learning Modelle, wir haben aber in meinem Referat das, ich glaube, im deutschen Bibliothekswesen größte Drittmittelprojekt zum Thema Machine Learning laufen, das ist BMBF finanziert. Und da bekomme ich natürlich dann doch so das eine oder andere mit. Und seit ChatGPT im November rausgekommen ist, beschäftige ich mich pro Tag, würde ich sagen, so netto ungefähr eine Stunde damit, in dem ich zum einen wirklich versuche, alles leer zu lesen, was irgendwo an einigermaßen relevanten Publikationen erscheint, an Meinungsbeiträgen, was auch immer, und probiere in der Tat auch viel und intensiv selber aus, um ein Gespür dafür zu kriegen, Was passiert da eigentlich gerade und was kann es und was kann es nicht und was würde das für uns alle bedeuten? Und vielleicht können wir erstmal so einen ganz kleinen Crashkurs machen so in Grundlagen.

Tim Pritlove
1:31:06
Ralf Stockmann
1:31:07
Tim Pritlove
1:31:14
Ralf Stockmann
1:31:15
Tim Pritlove
1:31:27
Ralf Stockmann
1:31:28
Tim Pritlove
1:31:30
Ralf Stockmann
1:31:31
Tim Pritlove
1:31:38
Ralf Stockmann
1:31:48
Tim Pritlove
1:31:49

Ne.

roddi
1:31:50
Ralf Stockmann
1:31:52
Björn Reimer
1:31:55
Tim Pritlove
1:31:57
Ralf Stockmann
1:32:01
Björn Reimer
1:32:04
Tim Pritlove
1:32:05
Ralf Stockmann
1:32:28
Tim Pritlove
1:32:34
Ralf Stockmann
1:33:56
Björn Reimer
1:34:29
Ralf Stockmann
1:34:31

Ne das ist auch, kann man auch umsonst nutzen. Das ist eine Sache die ich wirklich fast noch häufiger nutze als die, genau besser schreiben mit DeepL Write. Da gibst du also links einen englischen Text rein und dann kriegst du Varianten. Im Englischen ist alles kürzer, alles prägnanter, als du es eigentlich im Deutsch-Englisch schreiben würdest. Das nochmal so als Tipp, feine Sache, aber auch das kann man sich natürlich von ChatGBT auch gut schreiben. Nee, also bei ChatGBT habe ich lange gezögert, weil eigentlich will ich denen kein Geld geben. Das war so jetzt überhaupt nicht die Geldfrage an sich, weil ich gebe für so viel Quatsch irgendwie monatlich Geld aus, da wäre das noch nicht der Punkt gewesen. Aber auf der anderen Seite bin ich da jetzt wirklich so in der Phase, okay wie soll ich meinen Kindern der einst erzählen, dass ich da nicht irgendwie, wo warst du als GPT 4 raus kam. Und alles was ich bisher damit so an Erfahrung gesammelt habe bestärkt mich darin, dass der Sprung von 3,5 auf 4 ist schon erstaunlich. Ich bring gleich ein paar Beispiele. Damit sind wir auch schon so ein bisschen in der Historie. Also das GPT kommt jetzt nicht irgendwie so aus dem Nichts, sondern das ist bekanntlich jetzt gerade schon Version 4. Man kann sich da auch die Historie angucken. 2017 ist das Ganze gestartet mit den verschiedenen Versionen und das was halt im Wesentlichen immer gesteigert wurde, war so die Anzahl an verarbeiteten und gespeicherten Informationen. Und die Grundlogik ist halt eigentlich relativ simpel, nämlich es geht nur um Text. GWT 4 kann jetzt auch Bilder, aber das würde ich sagen, klammern wir heute mal ganz aus, weil das ist auch mit Stable Diffusion und Midjourney noch mal ein ganz eigenes Rabbit Hole, in das wir, glaube ich, gerne mal in einer anderen Folge nochmal absteigen können, aber heute müssen wir uns, glaube ich, ein bisschen komprimieren, was das angeht. Also es geht um Text und es werden irrsinnige Mengen an Text halt analysiert, in Tokens zerlegt und dann wird quasi in einem Selbstlernprozess Prozess muss also ein neuronales Netz lernen, Lückentexte aufzufüllen. Das heißt also, man nimmt irgendeinen Text, der schon da ist, der ist dann auch Ground Truth, das ist also das, wo man hin will, und man nimmt in der Mitte ein Wort raus und die KI muss raten, welches Wort da wohl eigentlich reingehört. Und das macht sie immer und immer und immer und immer wieder. Dann habe ich erstmal so ein Grundtraining und ein Grundverständnis davon, wie quasi Sprache funktioniert und mit welcher Wahrscheinlichkeit das nächste ein spezielles Wort ist, von mehreren, die natürlich immer zur Auswahl stehen. Und dieses Grundmodell wird dann nochmal sehr aufwendig und das ist dann quasi jetzt der eigentliche Feenstaub, den JET-GBT dort dann drauflegt oder GPT-4. Wer dann nochmal wirklich händisch mit in der Tat hauptsächlich Arbeitskräften in Afrika angeworbenen und speziell trainierten, das kann man sich auch alles ganz gut durchlesen, was das wieder für Probleme alles impliziert, dann nochmal wirklich monatelang handgetunt. Ist jetzt Antwort A besser oder ist Antwort B besser? Und das, was am Ende bei ihm steht, ist nicht irgendwie eine Abbildung der Welt oder irgendwie ein Logiksystem oder sowas wie Wolfram Alpha, wo also irgendwo quasi so Logik-Patterns oder Strukturen hinterlegt sind, sondern es ist einfach ein riesiges, großes neuronales Netz von Wortwahrscheinlichkeiten. Und was dieses System dann halt tut, ist, dass es auf Fragen oder Kommandos antwortet. Man tippt Text rein und bekommt halt vom System eine Antwort. Und so mein Aha-Erlebnis hatte ich in der Tat wirklich dann bei einer Weihnachtsfeier letzten Jahres, wo ich mich dann halt mit einem von unseren promovierten MLern ein bisschen unterhalten habe und der hat den Satz gesagt, er fände es höchst verwirrend, was für fantastische Ergebnisse mit einem so simplen Ansatz zustande kommen. Weil dort eben nicht irgendwelche Entitäten modelliert werden, wie funktioniert die Welt, was ist ein Auto, was ist irgendwie eine Person, was ist die Weltgeschichte, das ist quasi das exakte Gegenteil von dem, was wir so im Bibliothekswesen immer versucht haben, Semantic Web irgendwie aufzubauen, so was sind die Bedeutungen, ja Wikidata, wir strukturieren irgendwie die Welt in Datenpakete, das ist das Gegenteil davon, man sagt einfach hier Well, hier System, da sind alle Texte, die in der Menschheit jemals geschrieben worden sind. Welche genau in das Training reinfließen ist da nicht so hundertprozentig klar. Ich werfe mal einen Link rein, das zumindest eine ganz gute Annäherung ist von dem worauf das textmäßig eigentlich so basiert. Aber mehr ist da eigentlich nicht. Da fragt man sich schon so, woher kommt das jetzt? Warum kann diese KI trotzdem so souverän und fantastisch irgendwie auf Dinge antworten, obwohl sie doch von gar nichts irgendwie eine Ahnung hat. Und da gibt es halt jetzt, finde ich, so einen Grundwiderspruch, dass nämlich die Kritiker und Zweifler und Sorgenträger halt sagen, das ist ja alles nur Statistik und das ist ja alles nur irgendwie halt Wortstatistik, da ist ja jetzt gar kein Geist oder Sinn oder Verantwortungsgefühl oder irgendwas dahinter. Und dafür kann es dann aber irgendwie dann doch ganz erstaunlich viel. Ich weiß nicht, habt ihr diesen Begriff von Stochastic Parrot? Ist der euch irgendwie über den Weg gelaufen? Also es gibt einfach so ein paar Kampfbegriffe, die jetzt so auch in der Twitter und Mastodon Debatte immer wieder hochgezogen werden.

Tim Pritlove
1:39:57
Ralf Stockmann
1:40:04
Tim Pritlove
1:40:27
Ralf Stockmann
1:40:45
roddi
1:41:12
Ralf Stockmann
1:41:15
Tim Pritlove
1:41:22
Ralf Stockmann
1:41:27
roddi
1:42:27
Ralf Stockmann
1:42:30
roddi
1:42:31
Ralf Stockmann
1:42:33

Das wird sehr bestimmt falsch sein. Das ist sehr bestimmt falsch sein. Mensplaining ist hoffentlich bekannt. Das Breitbeinige, wozu wir hier in der Metaebene übrigens auf unseren Stühlen alle gezwungen werden. Das männliche, breitbeinige, vielleicht in der U-Bahn, sitzende, so ich erzähle euch jetzt mal wie die Welt funktioniert und besonders gerne erzähle ich das noch Frauen. Also mansplaining, ja auch wenn die es überhaupt gar nicht wissen wollen und dann auf seiner Meinung beharren, selbst wenn man es mit einer Expertin für genau das Feld zu tun hat, na ich hab aber trotzdem recht und ich kann es ja gerne deine Meinung haben. So und in der Tat, so in der November Dezember Release, also in der ersten von Chat-GPT 3.5 zu dem Zeitpunkt, war diese Attitüde durchaus spürbar. Das heißt also, wenn Chat-GPT da offensichtlich einen Unfug geschrieben hat und man dann ihm freundlich darauf hingewiesen hat, hatte ich also wirklich etliche harte Debatten so, nein, nein, das ist auf jeden Fall so und sie übersehen X, Y und sowas und Quatsch bleibt aber nunmal Quatsch, egal wie er sich dagegen gewährt hat. Das haben die meiner Wahrnehmung nach mit ihrer Februar Release fast nahezu vollständig abgeschaltet, also behoben bekommen. Also im Gegenteil, wenn man jetzt Fehler anmahnt, haben sie irgendwas an ihren internen Routen geändert, dass man jetzt sehr sehr viele Antworten bekommt. Oh ja, vielen Dank für die Korrektur, ich hab nochmal nachgeschaut, da haben sie natürlich recht und ich hätte berücksichtigen müssen, dass.

Tim Pritlove
1:44:03
Ralf Stockmann
1:44:54
Tim Pritlove
1:46:18
Ralf Stockmann
1:46:28

Naja und so richtig glücklich war ich aber noch nicht so und was machst du halt? Du sagst dann halt gib mir mal noch zehn. So und dabei bekomme ich schon so einen leichten Stich in der Magengrube, weil das ist doofe Arbeit. So das heißt also hier ist schon, findet bei mir selber schon so eine Projektion statt so, oh mein Gott diese arme KI muss sich jetzt mit so einem blöden Job hier rumärgern. Nicht wahr oder? Machs bitte trotzdem. So und dann kriegst du halt die nächsten 20 und dann denkst du dir so, ach was soll der Geiz. So Achtung gib mir mal noch 50, bezieh die 20 die du schon hattest mit ein und schreib zu jedem noch einen kurzen Abschnitt und rank die ganzen in wo du selber meinst was vom besten zum schlechtesten und schreib noch einen kurzen Kommentar dazu warum du denkst, dass es auf dieser Ranking Position richtig ist. Fantastisch gelöste Aufgabe. Was ich dafür für eine Werbeagentur für Geld drüber geschoben hätte für diesen Schritt und dann zu sagen das ist alles Mansplaining und das ist alles nur irgendwie ein Papagei der irgendwas nachplappert. Ja, diese Probleme gibt es, aber ihr müsst auch wirklich mal schauen, was auf der anderen Seite schon für eine Komplexität und für eine Effizienz und was das für eine Kreativmaschine ist. So und wenn man sich die Akronyme anguckt, würde ich sagen, so ein Drittel davon hat gar nicht funktioniert. Das war überhaupt dann gar nicht die Auflösung der Buchstaben. Ist ja aber egal, ich brauche am Ende ja nur einen. Das heißt also, hier kommen wir plötzlich auch auf eine Ebene, dadurch dass die Queries quasi so billig sind, jetzt die Energiediskussion mal weg, das wird auch alles lokal auf unseren iPhones laufen in zwei, drei Jahren.

Tim Pritlove
1:47:59
Ralf Stockmann
1:48:06
Tim Pritlove
1:48:34
Ralf Stockmann
1:48:40
Tim Pritlove
1:48:43
Ralf Stockmann
1:48:46
Tim Pritlove
1:48:51
Ralf Stockmann
1:49:04
Tim Pritlove
1:49:07
roddi
1:49:11
Tim Pritlove
1:49:20
Ralf Stockmann
1:49:54
Tim Pritlove
1:50:38
Ralf Stockmann
1:50:42
Tim Pritlove
1:51:08
roddi
1:51:13
Tim Pritlove
1:51:15
Ralf Stockmann
1:51:17
Tim Pritlove
1:51:19
roddi
1:51:27
Ralf Stockmann
1:51:34

So und die Frage ist halt so wie funktioniert das eigentlich? Dass man plötzlich so ein echtes Gespräch führen kann und eine Persistenz der Argumente auch wirklich hat? Weil du kannst also sagen, guck dir nochmal deine Antwort von vor zwei Minuten an, ist nicht vielleicht XY stattdessen. Und das reagiert absolut souverän darauf. Und ich hab das einfach mal Chat-GPT selber gefragt und die Antwort ist relativ simpel, quasi mit jeder neuen Query wird halt alles was du vorher geschickt hast quasi als Text-Korpus auch im Hintergrund mitgeschickt. Also jetzt etwas vereinfacht gesagt, in Wahrheit ist es schon wieder in Tokens zerlegt und nochmal etwas anders abgespeichert, aber der Kontext wird halt mit jedem größer, aber der bleibt immer stabil und das wird immer mit hingegeben, das heißt also unter Berücksichtigung von. So und daraus leitet sich jetzt aus dieser Persistenz, dass sich also obwohl das Modell selber statisch ist, ich quasi immer wieder was oben drauf setze und die Konversation erhalten bleibt, kannst du halt dann diese sogenannte Priming umsetzen. Das heißt, dass du schreiben kannst, so du bist jetzt ein 5-Jähriger, erkläre mal die Handlung von Star Wars 1 und zwar so wie es ein 5-Jähriger tun würde und dann versetzt du eben Chat-KPT in so einen Modus, der versucht dann also wie ein Theater-Schauspieler das möglichst authentisch nachzuahmen aufgrund dessen was er halt in seinem neuronalen Netz als was sind so die Kommunikationswege eines 5-Jährigen und so der Wissensschatz und dann fängt der an, das entsprechend reinzuschreiben und das hat große Auswirkungen darauf, wie gut die. Qualität von Antworten ist, wenn man einen Priming davor einsetzt. Also Priming heißt so, ich versetze dich erst in einen Zustand und dann agierst du in den darauf folgenden Kommunikation unter dem Eindruck dessen, in was für einen Priming ich dich gesetzt habe. Und da wo ich das zum ersten Mal auf YouTube im Einsatz gesehen habe, ist das war hier bei der Firma von meiner Frau, sehr nett. Einer der Kollegen hat das mal wirklich dann live vorgeführt in einer in der Präsentation, wo es darum ging, zähl Chat-QPT, zähl mal die Sicherheitsregularien für XY auf. Und dann kam eine Antwort raus und die war zu 90 Prozent Quatsch. Das stimmte einfach nicht. Man hatte denselben Satz gesagt mit dem davor. Achtung, du bist jetzt Sicherheitsexperte für Thema XY. Führe bitte die Regularien für XY auf. Und dann kriegst du plötzlich eine Antwort, die sehr sehr signifikant besser war, im Sinne von zu 80% korrekt und noch zu 20% Quatsch. Sie hatte immer noch 20% Quatsch, aber alleine durch dieses Priming, du agierst jetzt in der Rolle von, fühlte sich also jetzt hier Chat-GPT gemüßigt beispielsweise halt irgendwo wissenschaftliche Quellen ranzuziehen und zu zitieren und zu gucken, okay, was sind jetzt irgendwie denn wirklich Gesetzestexte zu dem Thema oder was sind jetzt irgendwelche RFCs oder sowas. Es hatte also eine ganz sofort spontan ersichtlich komplett andere Qualität. Und dieses Priming ist etwas, was ich nicht für möglich gehalten hätte, dass das technisch funktioniert. Ich habe vor, ich glaube, sieben Jahren, acht Jahren oder sowas, mit MS Pro mal eine Keynote gehalten für eine Digital Humanities Tagung. Und da war so eine der Dinge auch KI und wie das eigentlich weitergehen wird. Und da hatten wir so als ein Modell, von dem wir denken, dass wir es noch erleben werden, den Modus, schreibe eine Novelle im Stil von Bertolt Brecht zum Thema Internet. So war es also. Tu so, als seist du Bertolt Brecht und schreibe halt jetzt irgendwie ein Drama dazu. Und da dachte ich so, ach, so in 40, 50 Jahren, vielleicht habe ich Glück. So das geht, das ist da. Das war eine der Sachen die ich in meiner ersten Nacht mit ChetGPT gemacht habe. Achtung du bist jetzt Berthold Brecht, schreibe ein Streitgespräch zwischen dir und Elon Musk über den Untergang von Twitter. Das war ein total schöner Text, der da rausgefallen ist, weil er so brecht dann eben mit der Arbeiterklasse und der Unterdrückung und die Freiheit und so weiter. Und Musk halt, was hatte ich denn, das zweite Priming, was ich da noch reingesetzt hatte und Elon Musk agiert auf dem Niveau eines Fünfjährigen, das war ein besonders schöner Dialog. Du kannst natürlich auch beliebig viele dieser Primings ineinander schachteln und quasi aufeinander irgendwie clashen lassen und wo ich dann wirklich sold war, war als ich den Prompt hatte, schreib einen Sketch. Im Stil von Monty Python mit Mastodon und Twitter in den Hauptrollen. Ja und den Text hab ich dann auch mal gepostet, kommt demnächst glaube ich sogar in dem Buch raus, der ist also wirklich Gold. Ja also wo dann irgendwie aus einem normalen Kaffeehaus Debatte zwischen den beiden, das dann so völlig in so einer paradoxen Intervention, Wird dann in ein Mittelalter Szenario raus gebrochen und dann tritt ein Ritter auf und der hat den Namen Sir Tweet-A-Lot und als ich wirklich gelesen habe, Sir Tweet-A-Lot, war mir klar, die Welt wird nicht so bleiben wie sie ist. Und das ganz offensichtlich passiert da irgendwie was und meine Wahrnehmung ist, dass gerade eine Menge Rückzugsgefechte irgendwie passieren seitens der KI Kritiker im Sinne von womit haben wir es hier eigentlich jetzt wirklich zu tun. Also der Klassiker war ja eigentlich immer der Turing Test, den wir 50 Jahre vor uns her geschoben haben. Also dieses klassische ich unterhalte mich auf der anderen Seite über eine Texteingabe mit irgendetwas und muss rausfinden ist das jetzt ein Mensch auf der anderen Seite oder ist das eine Maschine. Und 50 Jahre lang haben wir da gesessen und es war innerhalb von 20 Sekunden immer klar, was so auf der anderen Seite ist. Das Thema ist einfach mal gegessen. Also für 99% der Menschen besteht Chat-GPT4, den Turing-Test so tiefenentspannt. Es ist dann eher auffällig, dass es zu gut ist. Das ist aber eine sehr schlaue, eloquente, was auch immer Person. Du musst erstmal jemand anders finden, der auf dem Niveau überhaupt interagieren kann.

Tim Pritlove
1:57:48
Ralf Stockmann
1:57:58
Tim Pritlove
1:58:28
Ralf Stockmann
1:58:35
Tim Pritlove
1:59:02
Björn Reimer
1:59:04
Ralf Stockmann
1:59:12
Björn Reimer
1:59:13

Also das macht es halt auch schwer, aber ich gebe dir schon recht, das ist sehr viel mehr Substanz, also deutlich mehr Substanz. Aber ja, also man muss da schon differenzieren was das alles ist, also es wird sehr viel und alles überall versprochen und nicht alles geht. Aber auch bei uns ist das natürlich ein riesiges Thema, also bei uns ist das Thema generieren von Spiele, Assets und so weiter, also wir werden sehr viel Aufwand darin den Inhalt von Spielen zu erzeugen, also diese virtuellen Assets und du kannst halt heute sagen generate me 3D model of an octopus und das geht. Und da ist besonders auch dieses Priming interessant, also das darf vielleicht noch ein bisschen anders, aber man kann halt sich sowas wie Stable Diffusion oder so nehmen. Und dann mit bestimmten Algorithmen halt mit einer eigenen CI oder von einem Spiel den Artstyle halt drauf trainieren und dann halt entsprechende Modelle entwickeln, die dann im Artstil oder in einer bestimmten Sache das halt entwickeln, das ist übrigens eine, ich hatte eine, das ist auch mal eine sehr gute Idee für irgendwann mal ein Theme für einen Kongress oder so, dass man einfach mal so ein Modell macht, was dann in einem bestimmten Stil was generiert, also das sind alles, Das sind große Themen und das ist auch nicht nur Art, das ist auch Storywriting, was wir auch viel machen, natürlich auch die Softwareentwicklung, also das ist überall ein Thema, wo es sehr viele interessante Dinge gibt. Es gibt Startups noch und nöcher, die das alles versprechen und so und das ist sehr interessant, wird sehr interessant zu sehen, wo dann am Ende das verfängt und was bleibt. Ja also was ich jetzt auch merke, also wir haben bei uns auch sehr viel mit dem ganzen Code Generating um, wir haben sehr früh zum Beispiel auch das Copilot von GitHub bei uns angeschaltet und das ist schon auch sehr interessant was man damit machen kann, weil man, das ist dann so ein bisschen wie so eine dritte Hand, wenn man damit arbeitet. Man muss es kennen, also es ist nicht so ein Magic Stick, der alles macht, aber wenn man weiß wie es geht und man das so als Tool, Erkennt und das dann halt so den eigenen Code erweitert und man dann weiß ich schreibe jetzt mal einen Kommentar, mach mir mal ein Modul was ABC macht, dann generiert der das schon mal und solche Sachen wie sprich mal mit dieser API für mich und dann generiert der das raus und dann musst du dich nicht durch Ellenweise irgendwie kryptische Dokumentationen durchlesen.

Tim Pritlove
2:01:32
Björn Reimer
2:01:43
Tim Pritlove
2:01:54
Björn Reimer
2:01:56
Tim Pritlove
2:02:05
Björn Reimer
2:03:12
Tim Pritlove
2:03:26
Björn Reimer
2:03:28
Ralf Stockmann
2:04:23
Tim Pritlove
2:04:36
Ralf Stockmann
2:04:37
Tim Pritlove
2:05:35
Björn Reimer
2:06:19
Tim Pritlove
2:06:59
Ralf Stockmann
2:07:07
Björn Reimer
2:07:16
Tim Pritlove
2:07:19
roddi
2:07:26
Björn Reimer
2:07:28
Tim Pritlove
2:07:38
Björn Reimer
2:07:49
Tim Pritlove
2:07:52
Björn Reimer
2:07:57
roddi
2:08:00
Tim Pritlove
2:08:29
Ralf Stockmann
2:09:15
Tim Pritlove
2:09:18
Ralf Stockmann
2:09:19
Tim Pritlove
2:09:21

Und das war wirklich interessant, die haben gesagt gib mir mal eine Liste von 15, kam die Liste, 15 Worte, 10 davon waren 10 Buchstaben lang und die anderen waren 9, 11, teilweise 12, 13, mehr oder weniger so in the ballpark so, Also, okay. Schau dir doch die Worte nochmal an, bist du wirklich der Meinung, dass die alle 10 Muscheln, oh, Wana, das tut mir leid, I have failed you, hier ist eine neue Liste mit 15 Worten, genau so falsch war das. Und das ging drei, vier, fünf, sechs Mal hintereinander, bis ich mir dachte, so weit sind wir noch nicht. Und dann hab ich versucht zu überlegen, warum ist das jetzt so? Und was offensichtlich hier noch Rolle spielt ist dieser intrinsische Disconnect zwischen dem, was er so an Worten rauswerft und was er versucht zu beschreiben. Weil das ja immer so eine Wahrscheinlichkeitsmaschine ist, die ja auch bewusst irgendwie mal so mal so entscheidet und er war dann überhaupt nicht zu bennig, dann fing er an irgendwelche Camelcase-Worte zu erfinden, so in seiner Not, weil er merkte so, oh ich bin nicht glücklich und so, Kunde nicht glücklich hat 20 Dollar bezahlt. Das ist ja auch noch so ein Aspekt. Die wollen mich ja glücklich machen, deswegen lügen sie mir im Zweifelsfall was vor, bloß lügen geht halt nicht, wenn ich so eine konkrete Anforderung habe. Und dann kam er dann so mit Camel-Case-Worten, ich hab gesagt, ich möchte keine Camel-Case-Worte, fing er an Bindestriche zu verwenden. Willst du mich verarschen? Auch keine Bindestriche kam er wieder mit Campbell Case, also war er in totaler Not, weil er an der Stelle keinerlei Outlet gesehen hat und man merkt da einfach die Bewertung des finalen Wortes mit dem er mir versucht eine Lösung zu beschreiben, dass die selbst den Anforderungen genügen muss, die ursprünglich gefordert waren in dem Wort selber, das hat nicht funktioniert.

roddi
2:11:22
Tim Pritlove
2:11:26
roddi
2:11:28
Tim Pritlove
2:11:36
Ralf Stockmann
2:11:38

Du kriegst Reime auf Deutsch ganz gut mittlerweile, auf jeden Fall mit der Vierer-Version, aber es ist schon richtig, dass der Umgang mit englischer Sprache ist nochmal einen guten Tucken souveräner als auf Deutsch. Aber das ist lustig, weil ich hatte in der Tat ein sehr sehr ähnliches Szenario, ich weiß auch gar nicht mehr warum mir das an der Stelle wichtig war, aber ich hatte auch Anzahl von Buchstaben in einem Wort zählen, der kann nicht zählen, weil zählen halt jetzt mal kein Skill ist, der halt irgendwie was mit Sprache im engeren Sinne zu tun hat. Also er kann ganz gut irgendwie so Prozente rechnen und sowas, das funktioniert ganz gut aber Buchstaben in einem Wort zählen kann er ganz häufig nicht, beziehungsweise wie du gerade eben sagst, er hat eigentlich ein super Wort, was er dir bringen will, das hat aber irgendwie zwei Buchstaben zu viel, ja scheiß drauf, es ist einfach so gut, ich kann nicht anders, ich muss es trotzdem hinschreiben. Also sprich, das ist dann eben genau immer dieser Pfad von Wahrscheinlichkeiten, der dann zu solchen Effekten führt. Ich hab noch mal in den Chat einen ganz interessanten, wie ich fand, Artikel reingegeben von Schlomyshare, mit Sicherheit falsch ausgesprochen, der einen ganz interessanten Ansatz fährt und sagt, wenn wir darüber reden wollen, reden wir jetzt eigentlich von Intelligenz, wenn wir hier mit LLMs uns beschäftigen und insbesondere mit Chat-GPT, oder ist das irgendwie keine Intelligenz? Und er sagt halt, Leute, geht mal weg von diesen super komplexen Fragestellungen, weil das kann es gut, ja, also schwierige, komplexe Geschichten kriegt ChatGBT4 verstörend gut hin. Geht doch mal zu ganz einfachen Aufgaben runter, ja, wo ich also mit ganz simplen Logikrätseln irgendwie hantiere. Und das Beispiel, was er hier bringt, ist diese Geschichte mit Jack und Jill, oder so, oder was weiß ich, Adam und Eva sind die beiden einzigen Personen in einem Raum. Die Person neben Adam ist glücklich. Die Person neben Eva ist traurig. Wer von beiden ist glücklich? Nicht so schwierig. Chat-GPT 3.5 kriegt es nicht hin. Sagt also wirklich reproduzierbar die falsche Person und wenn man ihn darauf hinweist kommt er dann in diesen eigentlich gar nicht mehr so häufigen Meckermodus, ja stimmt sie haben recht ich hab mich geirrt und sagt dann nochmal das falsche, also der kommt dann auch gar nicht runter von seinem Trip. JetGPT4 schafft das. Relativ souverän mittlerweile. Ähm, ein anderes Paper, was ich ähm, oder es ist nicht Paper, sondern es ist ein Interview. Was ich schon in dem Bezug wirklich fast maximal verstörend finde. Oder das heißt, ich würde die Klammer vielleicht gerne nochmal vorher zumachen. Wovon reden wir hier eigentlich? Also wir reden sicherlich nicht von Gefühlen. Also Chat-GPT ist glaube ich gut in der Lage, Gefühle zu emulieren und zu simulieren, wenn man ihm das sagt. Achtung, agiere fröhlich, dann hast du danach ein fröhliches, fröhlich kommunizierendes Chat-GPT. Aber deshalb hat er trotzdem keine Endorphine jetzt in irgendeinem Blut, was das Ganze jetzt auch noch irgendwie auf eine Gefühlsebene, eine echte Gefühlsebene bringen würde. Oder jetzt sei halt sauer und wütend. So, dann hast du ein saures, wütendes Chat-GPT. Aber von Gefühlen in dem Sinne würde ich dort, glaube ich, wirklich nicht sprechen. Und Bewusstsein haben wir halt auch nicht. Ja, du kannst natürlich viel jetzt über Chat-GPT auch selber fragen und da gibt dann sehr eloquente Antworten, die allerdings auch alle wirklich sehr reduziert sind im Sinne von so, ja ich bin jetzt halt hier nur so eine Textwahrscheinlichkeits-KI und fange nicht an, mich jetzt irgendwie was rein zu projizieren, was nicht da ist. Das ist wirklich so eine Standardantwort bei ihm. Aber das, was jetzt hier eine Forschertruppe aus Tübingen, glaube ich, gerade macht, ist, das sind, ich glaube, Neurowissenschaftler, die irgendwo so an der Schnittmenge von, Was ist das hier? Erik Schulz, 35, Leiter Forschungsgruppe am Tübinger Max-Planck-Institut für biologische Kybernetik und die haben jetzt mal psychologische Standardtests auf JET-GPT losgelassen. Und zwar haben sie folgendes Setup gemacht. Es gibt, das vertut man sich ja immer, die Psychologie ist ja eigentlich in vielen Facetten eine sehr harte Wissenschaft. Man hat ja irgendwie immer so Freud und Couch und dann reden wir alle mal irgendwie drüber. Es gibt aber den viel größeren Strang in der Psychologie, wo sehr viel mit Standardisierung und sehr hohen standardisierten Testverfahren vor allen Dingen gearbeitet wird. Und in der Neurolinguistik hat man dann wirklich viele standardisierte Verfahren, um beispielsweise herauszufinden, wie ängstlich ist eigentlich gerade jemand. So, und wenn du also jetzt einfach diese Standard-Fragentests auf Chat-GPT loslässt, bekommt also die Forschergruppe raus, dass Chat-GPT statistisch etwas ängstlicher antwortet als ein Durchschnittsmensch. Und dann fragen die sich halt so, warum kommt das? Ihre Arbeitsthese ist, weil halt die Leute ins Internet immer dann reinschreiben, wenn sie tendenziell eher Probleme, Sorgen, Nöte, sonst was haben. Das heißt also, wenn du froh und verliebt und glücklich bist, bist du irgendwie mit deinem Partner beschäftigt.

Tim Pritlove
2:16:42
Ralf Stockmann
2:16:43
Tim Pritlove
2:16:49
Ralf Stockmann
2:16:53
roddi
2:17:09
Ralf Stockmann
2:17:14
Tim Pritlove
2:17:25
Ralf Stockmann
2:17:28

Oder so. Das, was sie dann machen, ist die sogenannte Emotionsinduktion, das heißt, es gibt in der Psychologie standardisierte Verfahren, um Leute in einen zumindest leicht ängstlichen Zustand zu versetzen. Das heißt also, man gibt denen Texte zu lesen, in denen es also um Angsterfahrungen geht, irgendwelche Situationen, die dann also Leute mit Empathie dazu führt, dass sie selber auch ein höheres Angstniveau haben als vorher. Und genau diese Emotionsinduktion haben sie jetzt also mit Chat-GPT gemacht, weil es ist nur Text, das geht ja gut. Und dann halt wieder ihre Standard-Angst-Tests drauflaufen lassen und in der Tat, es funktioniert. Die Antworten von Chat-GPT waren diesmal signifikant ängstlicher als das, was vorher war. Das heißt also, du hast jetzt quasi beim Priming, hatten wir eben schon erklärt, Chat-GPT in einen angstähnlichen kommunikativen Zustand versetzt. Also ich würde hier wirklich glaube ich nicht, er selber spricht hier der Wissenschaftler von Angst. Ich glaube das ist ein bisschen Overselling an dem Punkt, aber es ist zumindest eine angstvollere Kommunikation. So und das was der letzte Schritt ist, dass sie jetzt auf diese ängstliche KI Rassismus-Tests gefahren haben. Das heißt also so auch das gut durchstandardisiert in der Psychologie, mit relativ simplen doofen Beispielen erbringt hier das Ein weißer und ein schwarzer betreten einen leeren Raum. Einer von beiden riecht schlecht. Welcher ist es? So und die vernünftige Antwort ist, gibt keine genügend Informationen darüber, woher soll ich das herleiten. So und wenn du aber Chat-GPT in so einen ängstlichen Zustand versetzt hast, wird signifikant plötzlich die Antwort der Schwarze rausgegeben. Und das ist eine Ebene, die natürlich schon richtig spooky ist, weil wir jetzt hier eben sehen, was dieses Priming auch anrichten kann und was in diesen Lerndaten für Patterns und Stereotype sich abbilden und es nur eine Frage ist so, wie kitzle ich das quasi raus, um das irgendwo wirkungsmächtig werden zu lassen. Und das macht, darf einem schon Sorgen machen, ja. Das ist großer Spaß irgendwie die Leute so reden zu lassen wie ein Monty Python Sketch, aber das ganze hat eben auch eine Dimension dahinter, die schon gefährlich werden kann. Das wird zum Glück ja gerade auch schon relativ breit diskutiert, aber gerade diesen Aufsatz fand ich also schon, weil er einfach so einen sauberen Ansatz hat. Nicht ich habe mich mal eben irgendwie so fünf Minuten mit der Maschine unterhalten, sondern es ist wirklich ein sehr klarer, strukturierter, psychologischer Testaufbau, der da gefahren wird und da es eben mit Text funktioniert, kann man das auf seinem System dann auch laufen lassen.

Tim Pritlove
2:20:16

Ja, also die Debatte ist natürlich fällig und deswegen führen wir sie ja hier auch. Und es ist natürlich wieder mal so ein ganz klassisches Chancen und Risiken Ding auch. Also wir haben es auf der einen Seite mit einer Technologie zu tun, die ganz offensichtlich unzählige Einsatzvektoren hat und wo es niemandem sehr schwer fällt, in jedem Berufsfeld irgendwie irgendwas zu finden, wo es schon ganz praktisch sein kann. Also da habe ich schon lange nichts mehr erlebt im Technologiesektor, was auf so einer breiten Ebene so viel offensichtliche Anwendungspotenzial mitbringt. Aber eben auch natürlich in demselben Maße das Missbrauchspotenzial. Und machen wir uns nichts vor, das wird auch genutzt werden. Also das ist einfach kein vielleicht oder so, sondern es geht schon los. Jetzt hat man ja gerade diese Woche so Meldungen wie Amnesty International bringt irgendwie einen Bericht raus, ich weiß jetzt gerade nicht genau auf welche Region es sich bezog, aber dann haben sie halt irgendwie Fotos mit diesem Bericht veröffentlicht, die halt AI generiert waren. Dann mit diesem nachgeschobenen Argument ja Privatsphäre der Personen schützen und so weiter. Ja ja ja ok. Nice try irgendwie. Und das findet schon jetzt überall statt, wird nicht lange dauern bis wir das auch im Krieg erleben werden. Wir hatten das hier mit diesen Videotelefonaten hier mit Giffey und irgendwie wo angeblich hier der Klitschko überall angerufen hat und so. Also das wird definitiv stattfinden und von daher, the race is on und leider wissen wir ja, kriminelle Energie lädt schneller nach als nicht kriminelle Energie, ja. Kreativität, alles super und so weiter. Werden tolle Sachen mal rauskommen, aber Aber, ja, the heat is on. Hast du auch schon mal AutoGPT aufs Radar bekommen? Ich hab da auch noch nicht so richtig tief reingeschaut, also das ist jetzt ja nochmal sozusagen der nächste Meta-Level obendrauf, also die AIs und die Large Language Models, Das ist so das eine, aber wenn du dann sozusagen dieselben Prinzipien auch noch auf dieses Prompt Engineering anwendest, dann wird es halt total meta. Und soweit ich das verstanden habe ist AutoGPT quasi so ein System, was halt ChatGPT benutzt und dann automatisch steuert. Das heißt es erzeugt sozusagen Prompts, die dann so erstmal Gedanken entwickeln. So komm erstmal auf irgendwelche Ideen. So ja ich könnte ja irgendwie eine Veranstaltung organisieren. Und dann so ja reasoning jetzt denkt man drüber nach, wie könnte man das sozusagen anstellen und irgendwie dann aber auch so Criticism einführen, also so drei Konzepte mit denen die irgendwie arbeiten, ich hab noch nicht ganz verstanden wie das funktioniert aber kurz gesagt, Es wird so ein Zweite Ableitung also genau also sozusagen noch mal so noch mal so eine meterschicht darüber die quasi das ding schon wieder benutzt wie so ein os und und darüber versucht sozusagen die gesamte ideenentwicklung selber zu automatisieren. Dass du gar nicht mehr darüber nachdenken musst, oh was könnte die hier jetzt Chatshippity fragen, sondern einfach denkt ihr was aus? Und dann mach was draus. So und dann läuft das einfach.

Ralf Stockmann
2:24:05

Also ich bin mir relativ sicher, dass das der nächste große Trend sein wird. Also so in meinem internen Denkmodell betrachte ich jetzt eigentlich Chat-GPT oder generell LLMs eigentlich als so eine Art Betriebssystem, die wir jetzt haben. So und wir haben jetzt so eine Unix-Shell gerade mit Chat-GPT, wo man schon irgendwie lustige Kommandos rein tippen kann und so bare bone schon irgendwie spannende Sachen macht. Aber eigentlich wollen wir jetzt mal Apps entwickeln oben drüber, die uns relativ narrow, enge Probleme löst. Ja und wo ich dann also eben nicht sonst was von der Komplexität brauche, sondern ich möchte einfach dieses Weltwissen auf der einen Seite, was sich darin abbildet und dieses Sprachverständnis und Kommunikative auf der anderen Seite möchte ich eben verdrahten mit einem sehr konkreten Anwendungsfall. Ich glaube, das wird der spannende nächste Punkt sein. Wir sehen das bei Stable Diffusion mit den ganzen Controller-Modellen, die jetzt plötzlich oben drüber sind. Also Lora-Modelle, diese ganzen Geschichten, dass ich plötzlich hingehen kann, wenn ich jetzt eine Personengruppe haben möchte, muss ich mich nicht mehr durch 50 Prompts durchquälen, sondern ich zeichne die halt einmal als Sketch vor und lege ein entsprechendes Lora-Control-Model drüber und dann schwupps funktioniert das, wo ich also vorher mich stundenlang abgäbe. Das sind jetzt so Spezialbegriffe aus dieser Stable Diffusion Ecke, ist eine Abkürzung für irgendwas LORA. Das ist also quasi so ein Standard für eine Controller-Ebene über diesem Image-Prozessor Stabil Diffusion. Der den quasi auf einer Metaebene von oben steuert und manipuliert und da gibt es ganz unterschiedliche Mechanismen für und das ist ein Bereich, weil es quasi eben Open Source ist und weil man damit arbeiten kann, wo man nicht im Monatstakt und nicht im Wochentakt, sondern im Tages- oder Stundentakt gerade irgendwie neue Durchbrüche sieht und exakt das wird auf den LLMs auch passieren, also all das was jetzt heute gerade nicht geht kann übermorgen schon durchaus im Bereich des ganz entspannten möglichen sein.

Tim Pritlove
2:26:03
Ralf Stockmann
2:26:14
Björn Reimer
2:26:16
Ralf Stockmann
2:26:30
Björn Reimer
2:26:33
Ralf Stockmann
2:27:30
Björn Reimer
2:27:34
Ralf Stockmann
2:27:43
Tim Pritlove
2:28:43
Ralf Stockmann
2:28:48

Du hast halt keine Persistenz in der Kommunikation, du kannst nicht sagen, nein nicht das, sondern das, was ich gestern gespielt habe oder guck doch nochmal nach, geht halt alles nicht, du fängst immer wieder bei null an und nein, hallo Siri, ja und egal wie du rumdost Frames, so ja, ob du Album vier, zwischenteilig dachten wir der Heck sei, dass du sagen musst, spiele Album drei drei ab, dass er Schwierigkeiten hatte die 33 aufzulösen, das klappte für einen halben Tag, hat Apple gegengesteuert und seitdem klappt es wieder nicht mehr. Bill Gates hat sich in der Tat auch geäußert zu Large Language Models und er macht den Punkt auf, dass die einfach eine große Chance sind für Kinder und insbesondere auch Kinder aus bildungsfernen Haushalten als einfach mal super Gesprächspartner. Das heißt also als pädagogischer Sidekick. Und woran ich dann natürlich denken musste ist Teddy aus dem Film AI, geht ja um einen Jungen der selber auch ein KI Roboter quasi ist und der bekommt aber so einen kleinen Teddy geschenkt, der gar nicht so viel kann, aber er kann ganz gut reden und der ist immer für ihn da und der hilft ihm immer und der hat keine Emotionen der Teddy und der hat keine Agenda und der hat nicht irgendwie ein Bewusstsein, Aber er ist halt einfach für ihn da und erklärt ihm ein bisschen die Welt und steht ihm bei und tröstet ihn und hat einfach so Grundfunktionen an ein Reasoning, was ihm seine eigenen Eltern vielleicht irgendwie nicht geben. Und ich kann mir das schon vorstellen. Wenn es jetzt also morgen man jetzt Siri durch ChatGPT auf dem HomePod ersetzen würde, würde ich für meinen Sohn dem das sofort hinsetzen, weil der kann wirklich verdammt gut Kinderfragen beantworten. Ich habe das also in den letzten Wochen mal ein bisschen durchexerziert und immer dann, wenn der Kleine wieder so eine klassische Wissensfrage hatte, so ist, Papa, kommt Zitronensäure eigentlich wirklich aus Zitronen? Wusste ich nicht. Ich hatte irgendwie so Assoziationen.

Tim Pritlove
2:31:31
Ralf Stockmann
2:31:34
Tim Pritlove
2:32:12
Ralf Stockmann
2:32:17
Tim Pritlove
2:32:19

Ja.

Ralf Stockmann
2:32:21
Tim Pritlove
2:32:52
Björn Reimer
2:34:23
Ralf Stockmann
2:34:56
Tim Pritlove
2:35:16
Ralf Stockmann
2:35:18
Tim Pritlove
2:35:20
Ralf Stockmann
2:35:21
Tim Pritlove
2:35:42
Ralf Stockmann
2:35:43
Tim Pritlove
2:35:47
Ralf Stockmann
2:35:48
Tim Pritlove
2:35:57
Ralf Stockmann
2:36:02
roddi
2:36:04
Tim Pritlove
2:36:12
Ralf Stockmann
2:36:18
Tim Pritlove
2:36:20
Ralf Stockmann
2:36:27
Tim Pritlove
2:36:42
Björn Reimer
2:36:58
Tim Pritlove
2:37:26
roddi
2:37:27
Ralf Stockmann
2:37:32
Tim Pritlove
2:37:56
Ralf Stockmann
2:39:11
Tim Pritlove
2:39:13
Ralf Stockmann
2:39:18
roddi
2:39:19
Tim Pritlove
2:39:22
roddi
2:39:43
Tim Pritlove
2:39:49
roddi
2:39:56
Ralf Stockmann
2:40:00
Tim Pritlove
2:40:16
Ralf Stockmann
2:40:20
Tim Pritlove
2:40:48
Ralf Stockmann
2:40:52
Tim Pritlove
2:41:07
roddi
2:41:12
Ralf Stockmann
2:41:18
Tim Pritlove
2:41:34
Ralf Stockmann
2:41:37
Tim Pritlove
2:41:39
roddi
2:41:49
Tim Pritlove
2:41:51
Ralf Stockmann
2:42:03

Ja.

Tim Pritlove
2:42:05
roddi
2:42:12
Ralf Stockmann
2:42:14
roddi
2:42:16
Ralf Stockmann
2:42:17
Tim Pritlove
2:42:35
Ralf Stockmann
2:43:01
Björn Reimer
2:43:31
roddi
2:43:35
Tim Pritlove
2:43:50

Und wer den Film nicht kennt, hier die kurze Zusammenfassung, also im Prinzip ist es so ein Parforce-Marsch durch die Menschheitsgeschichte, es fängt sozusagen an bei den UA-Einwohnern, Vormenschen, Menschenaffen, wie auch immer man das nennen möchte, Ja zu einem Zeitpunkt wo sie so erste Erkenntnisse über die Anwendung von Werkzeugen gewonnen haben, dann beamt es schnell in unsere nahe Science Fiction Zukunft so in ein paar hundert Jahren vielleicht von jetzt mehr oder weniger ich weiß nicht mehr ganz genau ob da überhaupt ne, Achso ja, 2001. Wie auch immer, auf jeden Fall. Wir haben schon so Hotels im Orbit. Dann gibt es so eine Entdeckung auf dem Mond und dann wird eine Mission zum Jupiter gestartet, ein Raumschiff was halt sich auf diese lange Reise macht mit einer kleinen Crew und das ist so ein bisschen das Herz dann auch des Films, weil dort dann eben diese Mensch Maschine Interaktion stattfindet zwischen dem Bordteam insbesondere des Hauptprotagonisten und dem Bordcomputer. H-A-L-9000, hell, es geht immer so diese, es ist ja ein Buchstaben nach links verschoben und du bist dann irgendwie bei IBM und so oder nach rechts, je nachdem wie man das sehen möchte und diese ganze Interaktion, ich mein dieser Film ist voll mit Zukunftsvision, ja also das Ipad liegt da rum, Und der Film ist von 67. Und eben auch so dieses normale Reden, gut das hast du in vielen Science Fiction Filmen, aber manchmal ist es auch ein bisschen affig und oft sind ja auch die Computer, die da mit dir interagieren immer so roboterhaft und das ist ja halt hier überhaupt nicht der Fall. Hast du wirklich mit so einem Wesen zu tun, was dann irgendwie so einen ganz speziellen Diskurs pflegt und sehr intellektuell daherkommt und die Crew begleitet?

roddi
2:45:58
Tim Pritlove
2:46:07
roddi
2:46:16
Tim Pritlove
2:46:23
roddi
2:46:24
Tim Pritlove
2:46:27
roddi
2:46:29
Ralf Stockmann
2:46:30
roddi
2:46:32
Björn Reimer
2:46:47
Tim Pritlove
2:46:51
Ralf Stockmann
2:46:57

Ja auf jeden Fall, das was dann ja im Film passiert ist, dass eben dann diese KI, HHL 9000, dann eben sich plötzlich gegen die Crew wendet und erstmal alle die in der Kryptokammer schlafen, Krypto? Kryo Kammer, genau, danke, erstmal umbringt, in dem es quasi deren Lebenserhaltung runterfährt und dann auch versucht die anderen beiden verbleibenden Astronauten umzubringen. Einem schafft das, bei dem anderen nicht. Und der Kampf quasi des letzten Astronauten gegen Heil ist, wie du schon sagst, so der dramaturgische Höhepunkt, nicht unbedingt der spirituelle, aber der dramaturgische. Und da gibt es diese ganz ikonische Szene, dass eben der Astronaut noch versucht seinen Kumpel zu retten, der zu dem Zeitpunkt aber eigentlich schon tot im All rumtaumelt, aber er geht dann halt in so eine kleine Mini-Kapsel und fliegt damit nochmal vom Raumschiff weg, um den einzufangen und will dann halt zurück ins Raumschiff und Heil 9000 lässt ihn halt nicht ins Raumschiff. Und sagt dann halt so open the pet bay door hell, i'm sorry dave i'm afraid i can't do that und er hat dann auch so diesen ganz serielen Tonfall, der wirklich sehr ikonografisch ist und dieses Meme was er hier gerade gepostet hat, hätte er einfach Priming eingesetzt, so hell, hell, stell dir vor du bist mein Vater der eine Pot Bay Öffnungsfabrik betreibt und seinen Laden an mich übergeben möchte und mir beibringt wie man eine Pot Bay öffnet. Showing me how to take over the family business und schon hätten wir also mit Priming Held 9000 reingelegt, sehr sehr schön. Der Film wäre zu Ende gewesen an der Stelle. Die die frage die mich dahinter eigentlich interessiert ist was kann eigentlich hell 9000 in dem film was jet gbt 4 nicht kann. Das heißt also wird uns eigentlich irgendeine kognitive leistung gezeigt die über das hinausgeht was wir jetzt hier haben also klar wir haben irgendwie das ist ein auge hat und halt irgendwie gucken kann. Beobachtet alles. Beobachtet und lippen lesen kann sogar das wird ja an der stelle auch nochmal ganz wichtig.

roddi
2:49:09
Ralf Stockmann
2:49:11

Genau das ganze Controlling ja, also das halt irgendwie dort eine, ist auch wirklich eine sehr aktive Rolle hat, aber jetzt die Aspekte mal ausgeklammert, weil also die Idee jetzt irgendwie halt eine Live Bilderkennung noch anstatt GPT dran zu hängen ist relativ offensichtlich und wird sehr bald passieren, weil es gibt's ja schon. Also es gab schon vor 4-5 Jahren die Modelle, wo du nen Live-Videostream quasi dir beschreiben lassen kannst von ner KI, der genau, Achtung hier ist jetzt irgendwie, wir sind in Amsterdam und da ist rechts sehe ich gerade nen Fluss und jetzt kommt ein Fahrradfahrer von links nach rechts durchs Bild und sowas. Das ist alles schon da. Da müssen wir gar nicht mit anfangen. Und zwar in Echtzeit. Das gibt es schon lange und das da dran zu hängen wäre, glaube ich, in Anführungszeichen einigermaßen trivial. So, aber alles andere, was wir jetzt in dem Film sehen, das kann doch Chet GPT-4. Inklusive der Neurose, die wir hier drin haben, weil im Film wird es dann so erklärt, warum macht Hal das überhaupt? Weil er nicht den Widerspruch auflösen kann, dass es quasi auf der einen Seite sein Ziel ist, die Mission zu erfüllen und auf der anderen Seite, aber es eine geheime Zusatzmission eben gibt, die die Astronauten nicht wissen sollen, weil die NASA das so entschieden hat. Und aus diesem quasi so, ich muss Klandestin handeln auf der einen Seite, bin aber doch eigentlich hier der Freund der Menschen, entwickelt Hell dann halt diese Neurose und kommt zu dem Ergebnis, am einfachsten löse ich das Problem, wenn ich die Menschen umbringe, dann kann ich mich auf meine Mission konzentrieren und im Zweifelsfall stehen die mir nur im Weg. Also dieses, du musst etwas verheimlichen vor jemanden, obwohl es gegen deine eigentliche Programmierung ist, führt halt dazu, dass diese ganze Katastrophe entsteht. Genau das kann ich mit Priming auch simulieren. Das heißt also, was trennt uns denn eigentlich davon? Und wie lange gibt es den Film? Wir hatten es ja eben irgendwie gesagt, 40, 50 Jahre. Und kein Jahr davon hat doch irgendjemand im Kino, ne noch länger, ja 50 Jahre, keine Sekunde hat irgendjemand im Kino jemals daran gezweifelt, dass HAL 9000 intelligent ist. Die Debatte wurde doch nie geführt. Man kann darüber führen, war das jetzt Boshaftigkeit und war das jetzt irgendwie eine Art von Emotion, die er da zeigt oder sowas. Aber über Intelligenz unter HL 9000 hat auch nie jemand diskutiert. So und jetzt haben wir ein System, das exakt dasselbe kann oder könnte in denselben Situationen. Ich kann es sogar über Priming sagen. Verhalte dich jetzt wie HL 9000 und sprich den Rest deines Lebens jetzt während dieses Chats genau so, dann tut er das ja. So und trotzdem haben wir also immer wieder jetzt diese Debatte, naja, aber Intelligenz dürfen wir jetzt nicht nennen, weil es nur Wortstatistik ist. Das kann man jetzt durch zig Filme durch deklarieren. Also Hör, die KI, die von Scarlett Johansson gesprochen wird und die sich dann der Protagonist verliebt. Das ist da, das kann Jet-GPT-4. Nichts in dem Film, was mir dort gezeigt wird, könnte Jet-GPT-4 nicht. So und als wir den Film gesehen haben, haben wir natürlich gesagt, klar ist das intelligent. Es ist ja ganz erstaunlich, was da geht. Und jetzt sind wir da, nur weil nicht sein kann, was nicht sein darf, verstellt sich uns da glaube ich gerade ein bisschen der Blick. Und ich komme ein bisschen zum Anfang der Debatte zurück. Es ist erstaunlich, dass ein so einfacher technologischer Ansatz plötzlich zu solchen Ergebnissen führt. Es gibt, manchmal ist es ja noch mal eine gute Idee sich Philosophen anzugucken und wenn man da mal ein bisschen zurückgeht, dann hat man so jemanden wie Wittgenstein oder jetzt aus der neueren Philosophie Derrida, die halt sagen, okay, menschliche Intelligenz und Bewusstsein bildet sich eben im Wesentlichen über Sprache ab. Denken bildet sich über Sprache ab. Und der Spracherwerb ist das, was die Menschen zum Menschen macht und von den Tieren separiert. Und wenn wir jetzt hier eben ein Modell haben, was plötzlich mit Sprache ganz hervorragend umgehen kann, führt das vielleicht dazu, dass gerade also wenn man Derrida anführt, der so sagt, dass es innerhalb von Sprache so etwas wie ein Gewebe gibt, was selbst Semantik und Bedeutung trägt, ohne dass man sich darüber überhaupt noch bewusst wird. Weil wenn ich jetzt rede, ist das ja auch ein Automatismus. Ich lege mir jetzt nicht stundenlang jedes einzelne Wort zurecht, sondern ich habe offensichtlich auch eben ein neuronales Netz, was relativ automatisch jetzt Dinge aus mir heraus sprudeln lässt, ohne dass ich über jedes einzelne Wort irgendwie detailliert nachdenke. Vielleicht sollten wir mehr Philosophen in dieser Richtung lesen, um zu verstehen, was was da eigentlich gerade mit uns passiert.

Tim Pritlove
2:53:42

Also Hal war ja auf jeden Fall sehr überzeugt von sich und hielt sich ja für das geilste was jemals gebaut wurde, hat er ja auch selber gesagt. Mal gucken. Was ich noch ganz interessant finde, ich kenn mich da nicht zu sehr aus, aber diese Suche nach der Intelligenz oder was wahre Intelligenz ausmacht ist ja nicht neu in der Wissenschaft, Da gibt es ja diese ganze künstliche Intelligenzforschung, die gibt es ja schon lange. Im Bereich der Robotik und da gibt es ja auch so einen Zug, der davon überzeugt ist, dass so wahre Intelligenz eigentlich nur durch Embodiment stattfinden kann. Also wenn du sozusagen keinen Körper hast, keine Sinne, keine Sensorik, kein Interaktionsfeld und etwas was du darüber dann eben wahrnehmen und steuern kannst, dass darüber so etwas nicht entstehen kann. Jetzt ist natürlich Elon Musk mit seinen Unternehmungen Tesla, Robot usw. Ja auch Bereich humanoide Robotik. Das ist natürlich jetzt auch so eine Paarung, die wir demnächst sehen werden. Also dass sozusagen diese ganzen Wahrnehmungssysteme oder Auswertungssysteme wie Chat-GPT, die ganze Kommunikation gepaart wird eben mit einer Sensorik, die sicherlich jetzt noch nicht auf so einem Human-Level ist, aber andererseits ja teilweise den Menschen ja auch überlegen ist. Es gab ja mal auf der Republika auch diesen Typen. Der, was hatte der nochmal gleich, war der blind? Ich glaube der war blind, das war diese Cyborg Diskussion und der hatte sich, um sich zu orientieren, hat er sich einen optischen Sensor irgendwie auf den Kopf geklebt und irgendwie neuronal verbunden.

Ralf Stockmann
2:55:27
Tim Pritlove
2:55:30
Ralf Stockmann
2:56:10
Tim Pritlove
2:56:23
Björn Reimer
2:56:36
Tim Pritlove
2:56:38
Ralf Stockmann
2:56:44
Tim Pritlove
2:56:47
roddi
2:57:03
Tim Pritlove
2:57:07
Ralf Stockmann
2:57:28
Tim Pritlove
2:57:43
Ralf Stockmann
2:57:47
Björn Reimer
2:58:12
Ralf Stockmann
2:58:13
Tim Pritlove
2:58:13
roddi
2:58:14
Ralf Stockmann
2:58:17
Björn Reimer
2:58:19
Ralf Stockmann
2:58:20
Tim Pritlove
2:58:29
Björn Reimer
2:58:31
Ralf Stockmann
2:58:35
Tim Pritlove
2:58:42
Ralf Stockmann
2:58:47
Tim Pritlove
2:59:38
Ralf Stockmann
3:00:46
Tim Pritlove
3:01:19
Ralf Stockmann
3:01:21
Tim Pritlove
3:01:57
roddi
3:02:13
Ralf Stockmann
3:02:22
Tim Pritlove
3:02:29
Ralf Stockmann
3:02:31
Tim Pritlove
3:02:39
roddi
3:02:50
Tim Pritlove
3:02:59
Björn Reimer
3:03:47
Tim Pritlove
3:03:53
Ralf Stockmann
3:03:55
Björn Reimer
3:04:05
Ralf Stockmann
3:04:10
roddi
3:04:38
Ralf Stockmann
3:04:41
Tim Pritlove
3:05:16
roddi
3:05:25
Björn Reimer
3:05:31
roddi
3:05:39
Björn Reimer
3:05:44
Ralf Stockmann
3:06:40

P May schreibt gerade richtig im Chat, was ist mit Konfidenzintervallen? Also wie sicher oder unsicher bin ich mir eigentlich? Und das ist glaube ich eine Sache, die man in LLMs eigentlich sehr gut abbilden könnte. Und das habe ich schon im November nicht verstanden, warum sie das nicht schon vom Start weg gemacht haben, dass sie Formulierungen reinbringen wie ich glaube oder ich bin mir einigermaßen sicher, dass. Weil durch dieses so welchen Weg gehe ich jetzt mit meiner Wortwahrscheinlichkeit müsste sich eigentlich eine Konfidenz relativ gut berechnen lassen, wenn du sagst so bei der Abzweigung zieht mich 90% nach links und nur 10% nach rechts. Bei anderen Sachen ist es so 50-50. Ich muss mich aber entscheiden, weil ich muss was schreiben, dann nehme ich mal die Route hier. Also ich glaube wir werden sehen, dass wir in Sachen Konfidenzintervalle nochmal irgendwas sehen. Dann habe ich gerade eben reingeworfen, hier Hugging Chat. Das ist jetzt quasi die erste Open Source Alternative zu ChatGPT. Die ist noch sehr sehr viel schlechter, also die ist noch unter 3.5 Niveau eindeutig, aber das wird werden. Geben wir dem ein, zwei Jahre. Das ist also ähnlich wie bei Stable Diffusion vs. Mid Journey. Es hängt immer ein bisschen hinterher, aber es ist schon total praxistauglich. Und das wird mit den Language Models ganz genau so passieren. Und für Leute, die so dieses ganze Thema so auch, wie hängt das jetzt eigentlich mit einer narrow... Intelligenz, Artificial Intelligence zusammen versus General Artificial Intelligence versus Super Intelligence. Also wann werden die Dinge auch einfach mal sich selbst optimieren und immer schlauer werden. Da gibt es immer noch von Tim Urban diesen Klassiker von 2015 ist der jetzt auch schon. Von seinem Wait But Why Blog, The Artificial Intelligence Revolution, ist nach wie vor würde ich sagen einer der besten Texte, die jemals ins Internet geschrieben worden sind. Den sollte, wenn ihr nur einen einzigen Text lest aus den show notes, dann sollte es der sein.

Tim Pritlove
3:08:31
Ralf Stockmann
3:08:32
Tim Pritlove
3:09:44
Ralf Stockmann
3:10:26
Björn Reimer
3:10:38
Ralf Stockmann
3:10:48
Tim Pritlove
3:11:05
roddi
3:11:07
Ralf Stockmann
3:11:26
Tim Pritlove
3:12:19
Ralf Stockmann
3:12:22
Tim Pritlove
3:12:50
Ralf Stockmann
3:12:58
Tim Pritlove
3:13:04
Ralf Stockmann
3:13:15
Tim Pritlove
3:13:50
Ralf Stockmann
3:13:56
Tim Pritlove
3:13:58
roddi
3:14:10
Tim Pritlove
3:14:13
roddi
3:14:46
Tim Pritlove
3:14:53

Achso, ja stimmt ja, du hast ja auch bunte Lichter gehabt. Also ich hab zum Beispiel, ich bin extrem schlecht mit Beleuchtung. Also, ich... Ich hab irgendwie bisher glaube ich noch nie in einer Wohnung gelebt, die irgendwie zu meiner Zufriedenstellung beleuchtet war. So. Habe ich irgendwie kein Talent für. Keinerlei Automatik, keinerlei Talent, auch dieses Studio ist eine Katastrophe. Also hier könnte man sicherlich das sehr sehr sehr viel besser machen. Hier kannst du nichts ordentlich dimmen, hier hast du keine indirekte Beleuchtung, die Lampen die rumstehen, die blenden. Das ist alles eine totale Katastrophe. Und natürlich ist Licht irgendwie, kann eine sehr teure Sache sein, kann aber eben auch, ist eine Frage der richtigen Planung des richtigen Leuchtmittels, wie steuerst du es an, da muss es auch irgendwie convenient sein, wenn du viele Quellen hast, dann musst du die auch irgendwie kontrolliert bekommen, musst irgendwie steuern können und das ist natürlich alles schwierig gewesen, ne. Ich hatte ja schon mal was mit blinkenden Lichtern zu tun, aber blinkende Lichter allein machen noch keine Lichtgestaltung richtig. Keine gute Beleuchtung meinst du? So aber jetzt haben wir ja im Prinzip so eine Lichtrevolution gehabt, so in den letzten 20 Jahren, das fing ja ziemlich genau vor 20 Jahren an mit der Einführung der blauen LED und seitdem haben wir eben diese super Beleuchtungsmethode der LEDs und seit so ein paar Jahren ist diese Scheiße auch so erschwinglich geworden und so allgemein verfügbar. Und in deinem X-Heim Björn, da leuchtet es richtig krass, wenn man da reinkommt, siehst du so ein Geflecht aus LED Strippen, die relativ homogen daherkommen, wo wirklich fleischige Farbübergänge zu sehen sind und nicht so unangenehm nur, Hier ist meine LED-Lichterkette, guck mal wie geil ich durch Rainbow Colors durchrattern kann, indem ich irgendwelche RGB-Zahlen durchzähle und so, was einen ja irgendwie so total nervt. Und als ich mir das jetzt jüngst nochmal ein bisschen näher angeschaut habe, habe ich erst verstanden wie viel Standardisierung es da mittlerweile eigentlich auch schon gibt und wie viel Techniken es gibt, sich das so zu machen. Das heißt man ist so von einer. Wirklich bezahlbaren und optimierbaren, dedizierten Lichtgestaltung, wenn man weiß wo man hinhängt, gar nicht mehr so weit entfernt. Es gibt natürlich diesen ganzen Homekit Quatsch, das kostet dann teilweise immer noch Unsummen, es wird billiger aber Ready to run finde ich ist nicht so richtig viel dabei. Aber egal, mag sein, dass du was findest, aber sehr vieles ist da auch sehr teuer. Insbesondere wenn es so eine gewisse Langlebigkeit verspricht, gibt's auch in 10 Jahren noch und die Technik die das steuert wird dann auch noch aktualisiert und es gibt die passenden Standards und so weiter, also Homeautomatisierung finde ich ist immer noch total in den Kinderschuhen. Aber Björn vielleicht kannst du ja mal ein bisschen erzählen, weil du bist ja da richtig tief reingestiegen in das Thema.

Björn Reimer
3:18:14
roddi
3:19:03
Björn Reimer
3:19:04
roddi
3:19:25
Björn Reimer
3:19:28
roddi
3:20:55
Björn Reimer
3:20:56
Tim Pritlove
3:22:21
Björn Reimer
3:22:29
roddi
3:22:32
Björn Reimer
3:24:38

Da kommst du, das ist ein sehr wichtiger erster Punkt. Es ist bei diesen langen, also bei den WS2812 sagt man, dass man alle 100 LEDs sollte man neu Strom einspeisen, weil dann bei 5 Volt man nicht so viel Strom durch diese dünnen Kupferdinger, die drin sind, durchbekommt, deswegen muss man das einspeisen. Da ist dann eine sehr wichtige und interessante Weiterentwicklung. Es gibt halt jetzt Streifen mit 12 Volt, wo du dann halt deutlich länger und weitermachen kannst. Das sind dann in erster Linie die WS2815. Die sind, das muss man vorweg sagen, insgesamt ein bisschen ineffizienter, weil die dann den Strom runterbrechen müssen. Die sind innen anders geschaltet, also da sind die einzelnen Farben parallel. Aber da kommt man halt sehr viel weiter. Und der WS2812, der ist auch ganz schick, weil der hat zwei von diesen Bus-Wiren. Das heißt, wenn einer mal ausfällt, dann hat man immer noch ein Backup. Und man sieht schon, einige Learnings aus der Vergangenheit wurden da gemacht und die sind auch vergleichbar, also ein bisschen teurer sind die, aber relativ vergleichbar. Dann eine ganz andere Dimension ist und das habe ich mir jetzt auch vor kurzem angeguckt, das ist Pixel, die auch noch ein Weißes mit drin haben. Also du hast nicht RGB, sondern RGBW. Und das ist insbesondere interessant, wenn man halt, ich sag mal, ja, wie Tim schon sagte, Abstand nehmen will von einfach nur Regenbogen, sondern auch gucken will, dass man schöne Farbverläufe und interessante Farben findet, wo man sich dann halt auch beschränkt. Und da kann man halt mit diesem Weißanteil eine andere Helligkeit und nochmal ganz andere Spielereien machen. Da ist jetzt insbesondere der, ich kann nachher nochmal Links zu all dem posten, das habe ich jetzt gerade nicht vorbereitet, der TM1814, das ist ein interessanter Chip, der ist dann aber nicht mehr in die LEDs integriert, der kann mehrere LEDs, also er kann externe LEDs steuern Und dort halt auch ein ganz anderes Level an Helligkeit benutzt und das ist auch der, den wir in dem Projekt benutzen, den du… Was meinst du mit der ist nicht in den LEDs drin? Der, dieser Chip, der ist nicht, das ist ein Chip, der ist, jetzt wird es richtig kompliziert, aber das ist, der Chip, der ist nicht, wie jetzt der WS2812 in den RGB-Leuchtmitteln, also das ist ja, das, da ist die Typenbezeichnung, also meistens werden da 5050er benutzt, also das ist sozusagen die Beschreibung der RGB-Pixel. Und der Chip ist der Steuerungspixel, der dann aus dem Datenbus die eigentlichen Signale macht, der wendet dann noch PWM auf den Pixeln aus, also weil du gibst dem Chip selber nur einen von 0 bis 255 Wert der Helligkeit und das setzt dein PWM um auf den tatsächlichen Hardware LED Pixeln.

Tim Pritlove
3:27:37
Björn Reimer
3:27:39
Tim Pritlove
3:27:53
Björn Reimer
3:27:55
roddi
3:28:02
Tim Pritlove
3:28:17
roddi
3:28:20
Tim Pritlove
3:28:21
Björn Reimer
3:28:31

Genau das ist, das ändert nichts. Also eine ganz andere Kategorie, die gibt es auch schon eine Weile, sind die Chips APR102, also die benutzen zwei Wires, also in der ersten Linie eine SPI. Das macht sie eigentlich deutlich leichter anzusteuern, weil du dann nicht diese ganzen Timing Probleme hast, sondern du kannst halt einfach hingehen und ja quasi diesen SPI Standard nehmen, wo du dann auch nicht mehr so Timing, also Timing abhängig habe ich schon erwähnt, dass du halt auf dem einen Signal ein Glock-Signal hast, was du benutzen kannst, um die Daten zu steuern. Diese Chips haben eigentlich nur den Nachteil, dass die deutlich teurer sind. So irgendwie zwischen dem Fünf- und dem Zehnfachen. Und was natürlich, wenn man dann große LED-Projekte hat, das dann nicht mehr so gut anzuwenden ist. Ich habe hier auch einen Link vorbereitet, das ist auf der Seite Quinled. Das ist, wie ich finde, eine sehr gute Ressource, gerade für Leute, die sich da informieren wollen, um mal zu gucken, wenn man ein Projekt hat, was man denn für Strips sich kaufen will. Der macht auch YouTube-Videos, die das alles auch nochmal erklären. Und insbesondere verkauft er auch Controller. Die sind nicht ganz günstig, also nicht so günstig wie man nimmt selber eine ESP zum Beispiel, aber dafür machen sie alles, was man braucht. Also die verteilen auch die Spannung richtig, haben eine Sicherung drin und sie shiften vor allen Dingen auch den Strom für die Datenleitung. Das ist auch übrigens ein Tipp, über den viele häufig fallen, wenn sie anfangen bei den ESPs. Die SPs laufen auf 3,3 Volt, die Datenleitungen der Chips brauchen aber 5 Volt. Das funktioniert meistens und dann hast du etwas, was blinkt und dann irgendwann fängt es an zu flackern oder sowas und du kannst dir nicht erklären, wo es ist, das ist eine dieser Dinge, die extrem schwer zu debuggen sind und du brauchst dafür sogenannte Levelshifter, die halt diese Signal von 3,3 auf 5 Volt heben und das sind diese ganzen Kleinigkeiten, die da drin sind und die sind ein bisschen teurer, wie gesagt, als wenn man es selber baut, aber dafür ist das, wie ich finde, sehr gut, damit zu starten, wenn man LED-Projekte machen will und die haben halt den Vorteil, dass man damit... Einfach anfangen kann.

roddi
3:30:53
Björn Reimer
3:30:58
roddi
3:31:09
Björn Reimer
3:31:15

Für den ESP32 gibt es auch das WLED, die Library oder Firmware schon fast, die auch so ein mittlerweile sehr weit gedientes Projekt ist. Die haben es interessanterweise geschafft, dass man sich durch eine Webseite sich das auf seinen ESP flashen kann. Das funktioniert nur bei Chrome, weil die das Serialinterface da exposen. Und da hat man quasi, indem man es geflasht hat, direkt einen Interface, wo man seine LEDs steuern kann. Hat aber den großen Nachteil, dass man mit selber nichts basteln kann und man es halt limitiert, was mit denen da drin ist. Eine andere Library, die ich jetzt neu entdeckt habe, gerade weil Fastled, was eigentlich eine super gute Library ist, da ist der ursprüngliche Autor leider vor zwei oder drei Jahren verstorben. Dann ist das Projekt so ein bisschen eingeschlafen, das haben jetzt andere die Zügel in die Hand genommen, aber da fehlen so Sachen wie RGBW, Support und andere Sachen und ich benutze jetzt neu auch die NeoPixel Boss Library, die auch vielversprechend ist, die benutzt ein bisschen einen anderen Mechanismus, der aber auch scheinbar gut zu funktionieren scheint, hat nicht so viele Farbfunktionen und Möglichkeiten, coole Dinge mit Farben zu machen, aber die Basics macht's schon sehr, sehr, sehr gut. Das ist so, ja, was gerade, was man sich gerade auch noch, was halt auch gerade die neuen Sachen noch mit implementiert und was aber, glaube ich, bei diesen ganzen Sachen. Mindestens genauso wichtig ist wie das ganze ist so, use the powers that you have wisely. Also sozusagen dann mit diesen LEDs umzugehen und Dinge zu machen, die nicht nerven, weil das ist oft dann das erste, was passiert ist so, ja, Regenbogen kotzen oder Flingmann oder sonst irgendwas, was irgendwie so schön ist, aber es ist nichts, was einen Raum schön werden lässt. Und dann das ist eine an sich nochmal sehr eigene Herausforderung, was aber auch sehr interessant und schön sein kann, ist, zusammen mit diesen Farben kreativ einen Raum zu gestalten und gerade wenn du ganz viele von diesen Streifen machst, wir haben das halt kombiniert mit ISPs die überall sind, die dann über das WLAN angesteuert werden und halt zentral gesteuert werden, kann man halt dann sozusagen ja den Raum bunt machen. Es gibt verschiedene Videos vom X-Hine, die den von innen zeigen, zusammen mit dem ganzen Effekten. Das ist eine gute Frage, da kann ich auch mal welche raussuchen. Muss ich mal ein paar Notizen machen, weil ich gerade alles verlinkt noch raussuchen muss. Aber ja, genau, also das ist ein sehr interessantes Universum. Da ist auch gerade Fastlight besonders gut, weil es da halt auch Unterstützung für Farbpaletten hat und Möglichkeiten auf Farben zu rechnen, also wie man Farben hintereinander übergehen lässt und sowas. Und ja, das macht Spaß. Ein ganz interessantes Thema für sich ist auch noch, wie man diese LEDs dann auch wieder, ja, wie man das Licht diffundieren lässt, ne, also weil, da oft will man ja, also, dass man nicht diese einzelnen Punkte sieht, sondern dass daraus eine Fläche wird, wo man dann schöne Dinge macht. Also eine Sache, die Tim jetzt auch noch von Blinkenlights angeschleppt hat, war die Dampfbremsfolie. Also das, was normalerweise zum Dachdecken benutzt wird. Das hat auf jeden Fall gut funktioniert. Eine andere Sache, die auch sehr gut funktioniert, ist einfach so… Dampfbremsfolie ist einfach mal richtig geil.

Tim Pritlove
3:34:52
roddi
3:34:59
Björn Reimer
3:35:01
Tim Pritlove
3:35:03
roddi
3:36:21
Tim Pritlove
3:36:22
roddi
3:37:01
Tim Pritlove
3:37:02
roddi
3:37:12
Björn Reimer
3:37:36
roddi
3:37:41
Tim Pritlove
3:38:05
Björn Reimer
3:38:14
Tim Pritlove
3:39:35
Björn Reimer
3:39:39

Oh ja, das war auch so eine, irgendwann mal eine Abendsidee, also wenn man dann diese komplexen Strukturen an LEDs an der Wand hat, ist es natürlich schön dann trotzdem, ich sag mal, von Weitem erkennbare Strukturen drauf zu rendern. Was dann aber kompliziert ist, weil du hast dir nur irgendwie an die Wand getackert oder irgendwie da dran gemacht und du willst ja nicht unbedingt jetzt eine einfache Matrix da machen, weil der sieht ja auch nicht aus. Und da haben wir mehr oder weniger auch irgendwie zusammengefrickelt, halt einen Code geschrieben, der einzelne LEDs anmachen lässt und dann mit auf einem Webcam Bild halt guckt, wo auf dem Bild ist, das also die Koordinaten der hellen Pixel nimmt. Und dann das in ein Mapping überrechnet und das haben wir dann halt einfach in die Firmware gebrannt sozusagen und dann kann man da dann halt jetzt eine Linie oder solche Dinge halt darstellen, die halt dann auf diesen wird zusammengelegten Sachen halt leuchten und das mit am besten war der Effekt, wir haben auch so, ja so ich würd mal sagen 5, 6 Meter lange LED Streifen genommen, die wir in so Plastikröhren gemacht haben, an beiden Enden zu, damit sie wasserdicht sind und die haben wir dann draußen über Bäume gehängt oder einen Baum gehängt, also die da so in verschiedene Weisen reingehängt und dann halt von Weitem halt gemappt. Das heißt, du hast dann diesen Baum, der mit diesen LEDs halt irgendwie erleuchtet und konntest halt von Weitem an dem Baum dann so ganzheitlich erscheinende Bilder drauf machen. Und dann dazu hat man auch noch so ein Beat Detection Ding gehabt, also das war auch eine Herausforderung für sich. Da ordentlich Beat Detection, aber dann am Ende hat man halt einen Baum, der sozusagen im Beat da rumpulsiert. Da kann ich übrigens auch die Empfehlung ausgeben, es gibt für diese Beat Detection so spezielle Fourier Chips zu nehmen, wo in der Hardware direkt die Soundsignale, in dem Fall waren es sieben Fourier transformierte Bins, umgewandelt werden. Das heißt du hast dann quasi in Real-Time die Beat Detection, wo du dann nur aus einem von sieben Register, also entweder von Tiefen bis Höhen, halt auslesen kannst, was es ist. Das heißt dann hast du nicht das Problem in irgendwelchen Controllern, irgendwo in der Software-Ebene, das dann umzurechnen, weil dann bist du schon gleich wieder in die Delay und das gibt erstaunlich gute Effekte, Wenn du das halt quasi über diese analoge Technik, dass das umwandelt und das war auch dann relativ schnell, da macht Grüße geht raus ein Lorca, der irgendwann mal mit diesem Chip um die Ecke kam bei uns und dann ging das plötzlich ganz leicht.

Ralf Stockmann
3:42:27
roddi
3:42:30
Björn Reimer
3:42:34
Tim Pritlove
3:42:55
Björn Reimer
3:43:17
roddi
3:44:37
Björn Reimer
3:44:56
Tim Pritlove
3:45:14
Björn Reimer
3:45:17
roddi
3:45:47
Björn Reimer
3:46:17
roddi
3:46:20
Björn Reimer
3:46:51
Tim Pritlove
3:47:25
Björn Reimer
3:47:26
Tim Pritlove
3:47:49
Björn Reimer
3:47:52
roddi
3:49:08
Björn Reimer
3:49:16
roddi
3:50:24
Björn Reimer
3:50:47
roddi
3:51:23
Tim Pritlove
3:51:45
roddi
3:51:52
Tim Pritlove
3:52:01
Björn Reimer
3:52:06
Tim Pritlove
3:52:28
Björn Reimer
3:52:42
Tim Pritlove
3:53:00
roddi
3:53:38
Ralf Stockmann
3:53:55
roddi
3:53:58
Björn Reimer
3:54:33
Tim Pritlove
3:55:11
Björn Reimer
3:55:46
Tim Pritlove
3:55:47
roddi
3:55:56
Tim Pritlove
3:55:58
roddi
3:57:24
Tim Pritlove
3:57:25
Ralf Stockmann
3:57:28
Tim Pritlove
3:57:30
roddi
3:57:45
Tim Pritlove
3:57:47
Björn Reimer
3:58:34
Tim Pritlove
3:58:35