Freak Show
Menschen! Technik! Sensationen!
https://freakshow.fm


FS289 Die Programmiersprache heißt Deutsch

Reisebericht Südostasien — David Lynch — Radiacode — Fediverse Activity Tracker — Programmieren mit AI — Model Context Protocol — Rodecaster Duo — Rodecaster Video — Apple Vision Pro — Receipts Space — LookScanned — DeepSeek

Tim ist auf Reisen in fernen Zeitzonen aber wir haben keinen Aufwand gescheut und trotzdem die Runde zusammengebracht um wichtige Dinge zu besprechen. Der Schwerpunkt liegt dabei natürlich bei dem vielberichteten, -bestaunten und -diskutierten AI-Model R1 von DeepSeek und wir erläutern, was es damit nun auf Sicht hat und ob der ganze Hype der letzten Wochen einen Kern hat oder wir nur auf heiße Luft starren. Dazu noch mal viel Updates zur Entwicklung von AI-Assistenten beim Programmieren und welche Auswirkungen das auf Softwareentwicklung an sich haben könnte. Tim berichtet dazu noch von seiner Reise und Ralf betrauert das Ableben von David Lynch.

https://freakshow.fm/fs289-die-programmiersprache-heisst-deutsch
Veröffentlicht am: 8. Februar 2025
Dauer: 3:40:13


Kapitel

  1. Intro 00:00:00.000
  2. Begrüßung 00:01:50.585
  3. Reisebericht Südostasien 00:06:24.615
  4. David Lynch 00:23:34.864
  5. Radiacode 00:36:38.004
  6. Fediverse Activity Tracker 00:46:30.204
  7. Programmieren mit AI 00:58:24.577
  8. Model Context Protocol 01:22:27.220
  9. Rodecaster Duo 01:29:41.689
  10. Rodecaster Video 01:41:03.004
  11. Apple Vision Pro Erfahrungen 01:46:09.346
  12. Halterungen für VR-Brillen 02:02:21.984
  13. Receipts Space 02:05:31.312
  14. LookScanned 02:10:21.294
  15. DeepSeek 02:16:13.081
  16. Ausklang 03:38:07.289

Transkript

Tim Pritlove
0:01:50
roddi
0:02:31
Tim Pritlove
0:02:32
Ralf Stockmann
0:02:34
Tim Pritlove
0:02:37
Ralf Stockmann
0:03:01
roddi
0:03:49
Ralf Stockmann
0:03:53
Tim Pritlove
0:04:12
roddi
0:04:23
Tim Pritlove
0:04:24
Ralf Stockmann
0:05:05
Tim Pritlove
0:05:44
Ralf Stockmann
0:05:49
roddi
0:05:54
Ralf Stockmann
0:05:56
roddi
0:06:04
Ralf Stockmann
0:06:08
Tim Pritlove
0:06:11
Ralf Stockmann
0:06:50
Tim Pritlove
0:07:03
Ralf Stockmann
0:07:05
Tim Pritlove
0:07:07
Ralf Stockmann
0:07:11
Tim Pritlove
0:07:19
Ralf Stockmann
0:08:01
Tim Pritlove
0:08:02

Und zwar haben sie den natürlich dann auch gleich, nicht einfach nur so in die Shopping-Mall reingebaut, weil das wäre ja zu einfach. Ja, sondern diese Shopping-Mall-Geschichte, wie heißt denn dieses Teil, Marina Bay heißt das, genau, Marina Bay, also ihr könnt ja mal nach Marina Bay, wie heißt das Ding nochmal, Marina Bay Sands, genau, Marina Bay Sands. Das sind diese drei Hochhäuser, wo oben wie so eine Flunder da oben nochmal so eine Etage draufgelegt wurde, wo dann die eine Seite so ein durchgehender Pool ist und auf der anderen Seite ist das alles so ein bisschen so parkmäßig und da können dann die Touris hochfahren. Ich habe das nicht gemacht, mir war es das nicht wert. Und die Aussicht genießen. Davor ist dann nochmal so ein künstlich angelegter Park auf so einer künstlich angelegten Insel. Es ist alles ganz pompös und alles ganz groß und viel von allem immer so. Also Singapur ist genauso wie Dubai so völlig übertrieben, weil die haben halt einfach die Kohle und It shows. Aber man muss auch sagen, es ist aber auch wirklich ein interessantes Experiment. Also dieses Land hat sich innerhalb von 50, 60 Jahren, mal kann man mal sagen, gut, sie haben ein, zwei geografische Vorteile gehabt, aber die haben sie halt auch voll ausgenutzt und das Beste draus gemacht und eigentlich einen ganz beachtlichen Stadtstaat dahin gelegt, nachdem sie ja eigentlich so von Malaysia so ein bisschen beschissen wurden. Die waren ja eigentlich erst Teil von Malaysia, aber dann hat Malaysia Singapur rausgeschmissen. Das hat immer so ein bisschen was mit so Bevölkerungsanteilen, chinesische versus muslimische Bevölkerung und so weiter zu tun. Auf jeden Fall wollten sie die irgendwie nicht haben und dann war das einfach nur so ein Fischerdorf, was aber ganz gut gelegen war. Und daraus haben sie halt dann irgendwie diesen großen Hafen gebaut und haben sich dann eben mehrere sehr gut funktionierende Standbeine gemacht. Also einerseits ist halt dieser Hafen, das ist so das Zwischenlager. Da müssen halt irgendwie alle Schiffe aus China, die nach Europa fahren, müssen da vorbei. Deswegen sind sie da als Umschlagplatz ganz groß. Das ist auch die größte Tankstelle der Welt. Also nirgendwo wird irgendwie so viel Sprit abgegeben wie dort, den sie ja nicht selber liefern, sondern den sie sozusagen da nur verkaufen. Und dann haben sie sich natürlich auch als Finanzplatz, als internationaler Finanzplatz etabliert und sind halt so zwischen den amerikanischen und europäischen Börsen da quasi Chef der jeweiligen Zeitzone und deswegen läuft es da ganz gut und deswegen haben sie eine Menge Kohle und ja, dann brauchst du halt so eine riesige Stadt. Aber ganz ehrlich, länger als ein Wochenende trägt das irgendwie nicht, wenn man sich das so anschaut, es sei denn, man hat da irgendwelche Connections. Deswegen bin ich auch gleich weitergefahren, dann erstmal nach Malaysia und danach nach Bali. Das war wiederum ganz interessant. Das ist also wirklich eine sehr nette Insel. Alles voll mit so Instagram-Menschen.

Ralf Stockmann
0:11:08
Tim Pritlove
0:11:14
Ralf Stockmann
0:11:48
Tim Pritlove
0:12:03
Ralf Stockmann
0:13:14
Tim Pritlove
0:13:16
Ralf Stockmann
0:13:27
Tim Pritlove
0:13:32
Ralf Stockmann
0:14:07
Tim Pritlove
0:14:10
Ralf Stockmann
0:14:20
Tim Pritlove
0:14:28
Ralf Stockmann
0:14:35
Tim Pritlove
0:14:42
roddi
0:15:13
Tim Pritlove
0:15:17
Ralf Stockmann
0:16:19
Tim Pritlove
0:16:22

Nee, leider nicht. Da ist es mit der Zukunft noch nicht so. Es wurde dann tatsächlich noch ein Foto von einer BMW CE 04, die irgendwo auf Bali steht, zugetragen. Aber leider habe ich die selber nicht gesehen. Und einmal ist auch einer mit dem Elektroteil an mir vorbeigefahren tatsächlich, aber alles andere ist knatter, knatter, ratter, ratter. Und was anderes habe ich natürlich jetzt auch nicht geliehen bekommen. Aber du leistest dir sowas, weil anders da sich fortzubewegen ist vollkommen unsinnig. Aber dann einfach in so einem Pulk von Mopeds die einfach alle gleichzeitig links und rechts an den Autos vorbei durch jede Lücke sich durchschlängeln keine Ampeln, einfach alles go. Ich kann euch sagen das ist einfach, also ich habe mich so so glücklich gefühlt in dem Moment, es war einfach das Beste überhaupt ein totales High habe ich da irgendwie bekommen in diesem Verkehr, nichts finde ich geiler als so voll chaotischer Verkehr, warum? Weil das so, das ist nicht rule-based, wie bei uns. Da ist es so, ja, Stratverkehrsordnung, Schilder, und so. Und wir hatten ja die Diskussion schon, rote Ampeln und so sind ja eh, zumindest bei Fahrradfahrern, nicht besonders populär. Da ist dann schon so ein bisschen Anarchie. Aber es wird dann immer viel geschrien, alle anderen müssten halt immer alle Regeln einhalten. Und dann macht man noch mehr Regeln, noch mehr Regeln, noch mehr Regeln, bis dann halt irgendwann gar nichts mehr funktioniert. und alles wird nur noch irgendwie bestraft und so und in Bali ist halt einfach scheiß drauf. Es gibt so ein paar Ampeln irgendwo wo so die Stadt ein bisschen sich mehr verdichtet bei so großen Kreuzungen und da lustigerweise auch ähnlich wie in der Türkei wenn du grün hast dann ist immer grün nur für eine Straßenseite und dann darfst aber sowohl geradeaus als auch rechts und links fahren, und dann eine längere Phase, aber es gibt nicht so dieses Problem, Leute wollen rechts abbiegen, aber dann kommt auch der Gegenverkehr, inzwischen muss auch in der Türkei so. Wusste ich vorher auch nicht. Aber davon abgesehen von diesen paar Ampeln gibt es halt einfach gar keine Ampeln, gar nichts. Sondern wer irgendwie auf die Straße will, der muss halt irgendwo eine Lücke finden. Und jede Lücke, die irgendwie da ist, wird mit einem Motorrad gefüllt. Es ist halt einfach automatisch immer irgendwie alles gefüllt und alles schlängelt sich durch. Und du schaust dir das an und es ist einfach wie so eine Lehrstunde in Thermodynamik. Du hast einfach das Gefühl, es sind einfach nur so quellende Gase, die sich automatisch miteinander vermischen und wieder verstreuen. Alles regelt sich von alleine. Das sind einfach nur noch so Temperaturschwankungen an Verkehrsdichte. Und es ist einfach das Geilste überhaupt.

Ralf Stockmann
0:19:13
roddi
0:19:19
Tim Pritlove
0:19:20
Ralf Stockmann
0:19:53
roddi
0:19:54
Tim Pritlove
0:19:57
Ralf Stockmann
0:20:32

Also ich kenne das aus Italien, in Florenz hatte ich den Effekt, als ich da selber mit dem Auto gefahren bin. Da hast du auch so vier, fünf spurige Straßen, wo es aber gar keine Spuren mehr eingezeichnet sind, weil es sowieso überflüssig ist. Und jeder drängelt sich so irgendwo durch, aber das Faszinierende ist, es passen halt auch alle auf. Also man hat auch irgendwie so ein bisschen das Gefühl, du bist ja jetzt auch nicht alleine, sondern du bist ja jetzt auch schon Teil von so einem Mobilitätskollektiv, wo es keiner darauf anlegt, dich jetzt in ein echtes Problem reinzubringen. Und das kann man sich in Deutschland überhaupt nicht vorstellen. Wenn ich da auf meiner Spur bin, dann ist das hier meine Spur und wenn da irgendjemand anders kommt, dann soll er mir reinfahren und dann rennen, dann werden die Versicherungen das schon unter sich ausmachen. Aber ich meine, du fährst halt auch mehr motorisiertes Zweirad. Ich bin Moped gefahren in Thailand und das fand ich schon anstrengend. Also das war, glaube ich, ein Bruchteil, so hektisch wie das, was du jetzt gerade beschreibst. Aber dieses man muss erst mal irgendwie zwei Minuten warten, bis man irgendwie reinkommt, zumindest wenn man so ein ängstlicher Typ ist wie ich, da hätte ich mir schon so die eine oder andere Ampel durchaus mal gewünscht. Ich mag halt diese Knatterbüchsen überhaupt nicht. Fahrradfahren jederzeit. Ich hätte ja super Fahrrad fahren können, aber ich mag halt einfach Mopeds nicht. Und dann muss man glaube ich erstmal reinwachsen auch in diese Art des Verkehrs. Aber ja, es funktioniert nachweislich.

Tim Pritlove
0:22:02
roddi
0:23:08
Tim Pritlove
0:23:15
roddi
0:23:25
Tim Pritlove
0:23:27
Ralf Stockmann
0:23:38
Tim Pritlove
0:23:42
Ralf Stockmann
0:23:45
Tim Pritlove
0:23:49
Ralf Stockmann
0:23:52

Es hat sich etwas abgezeichnet, in der Tat. Am 15.01. Das ist auch schon zwei Wochen her, drei Wochen fast und ich weiß nicht, wie es euch geht, man kommt jetzt ja in so ein Alter, wo auch einfach Leute sterben, zu dem man doch irgendwie einen Bezug hatte, so im Bereich Kunst, Gesellschaft, Politik, was auch immer und ich habe bei mir da so ein Phasenmodell irgendwie hinterlegt, so Achselzucken, naja, gut, war an der Zeit, Versus, ach, schon schade, hätte man ja das eine oder andere noch irgendwie von erwarten können. Und dann gibt es eine sehr, sehr kleine Kategorie von Leuten, wo es einem dann doch irgendwie an die Nieren geht. Also David Bowie war so ein Moment, Steve Jobs war so ein Moment. Aber nichts davon hat mich so aus der Kurve geworfen wie jetzt David Lynch. Er war jetzt irgendwie ja schon gar nicht mehr jung und das war jetzt alles überhaupt nicht überraschend. Aber mir ist dann an dem Tag klar geworden oder ich habe mir nochmal die Frage gestellt. Gibt es eigentlich irgendeinen Künstler, Künstlerin da draußen, die einen größeren Impact auf mein persönliches Leben hatten? Und dann war die Antwort nein. So, es gibt also zwei ganz wichtige zentrale Pfeiler bei mir. Das eine ist Depeche Mode und das andere war David Lynch. So, und der ist jetzt nicht mehr da. Und dann habe ich mich jetzt wirklich hingesetzt und dachte so, jetzt müssen wir es mal ganz kitschig machen. Und ich habe einen Nachruf geschrieben auf David Lynch, was er mir in meinem persönlichen Leben bedeutet hat. Und das schmeiße ich jetzt mal einfach in die Shownotes rein. Keine Sorge, das werde ich jetzt nicht draus zitieren. Aber es ist schon frappierend, wie die sehr unterschiedlichen Filme, die er gemacht hat, in jeweils sehr unterschiedlichen Lebenssituationen von mir, sehr unterschiedliche Dinge getriggert haben, aber die dann alle irgendwie sehr wichtig wurden. Zum Beispiel Dune von 84 ist der erste Erwachsenenfilm, den ich überhaupt im Kino gesehen habe. Vorher halt immer nur irgendwie Bud Spencer und so ein Kram, aber da war ich elf. Der Film ist ab 16. Man könnte ihn auch ab 18 gut rausgeben lassen. Und das war eine totale sensorische, inhaltliche Überforderung für mich. Aber auf der anderen Seite, wenn man dann in sehr jungen Jahren sehr verstörenden Dingen ausgesetzt ist, dann macht das mit dem Gehirn vielleicht auch das eine oder andere Positive, glaube ich. Und so ging das dann so durch die verschiedenen Filme durch. Und so die relevanten Stationen habe ich einfach mal ein bisschen runtergeschrieben. Wer auch David Lynch hinterher trauert, dort gerne mal reingucken. Ich finde, das war ein ganz, ganz großer. Er hat fantastische Filme gemacht, die man auch immer und immer und immer wieder gucken kann. Und ja, nur ist er weg.

Tim Pritlove
0:26:49
Ralf Stockmann
0:27:05
Tim Pritlove
0:28:37
Ralf Stockmann
0:29:44
Tim Pritlove
0:29:52
Ralf Stockmann
0:30:33

Also das, was Twin Peaks wirklich erfunden hat, ist halt serielles Erzählen. Das heißt also vor Twin Peaks gab es eigentlich nicht den Gedanken, dass wir eine Serie, eine Fernsehserie über x Folgen, Querstrich Staffeln als eine durchgängige Geschichte erzählen. Da gab es eigentlich immer so Monster of the Week oder der Fall des Kriminalkommissars der Woche und es gab so ein paar leise Themen, die vielleicht ein bisschen weiterentwickelt worden sind, aber in Twin Peaks hast du eigentlich wirklich eine einzige durchgängige Geschichte und die endet zwar immer mit einem Cliffhanger, dadurch hast du schon ein bisschen eine Strukturierung, aber du kannst das also auch problemlos als irgendwie 10 Stunden Film durchgucken. Ansonsten von der Struktur her was sollte man sich angucken und was nicht davon zu Twin Peaks, die erste Season würde ich sagen, das sind ja auch gar nicht so viele Folgen das sind glaube ich irgendwie nur 7 oder 8 oder sowas die würde ich sagen, muss Mensch gesehen haben, so ansonsten fehlen einem popkulturell einfach so viele Dinge, die man einfach voraussetzen muss, ja das ist halt irgendwie so wie Star Wars, so das muss einfach irgendwie mal und das ist auch fantastisch, das tut überhaupt nicht weh, das Alter hervorragend, Die zweite Season kann man sich dann meiner Meinung nach ziemlich schenken. Das ging also ziemlich in die Binsen. Und dann hat er ja als Alterswerk, da war er schon 71 Jahre alt, hat er ja noch eine dritte Season hinterher gedreht. Und die finde ich persönlich ganz, ganz hervorragend. 2017 war das. Wo er also echt nochmal gezeigt hat, es steckt immer noch alles in ihm und er kann das immer noch alles abrufen, hat er auch mit Frost wieder zusammen gemacht. Also die erste Season von Twin Peaks, die ist wirklich sagen, wirklich totales Pflichtprogramm. Tja und ansonsten Filme also so die beiden großen.

Tim Pritlove
0:32:19
Ralf Stockmann
0:33:04
Tim Pritlove
0:33:30
roddi
0:33:33
Tim Pritlove
0:33:34
Ralf Stockmann
0:33:35
roddi
0:33:36
Ralf Stockmann
0:33:37
roddi
0:33:43
Ralf Stockmann
0:33:45
Tim Pritlove
0:33:47
roddi
0:33:49
Tim Pritlove
0:33:51
Ralf Stockmann
0:34:12
Tim Pritlove
0:34:22
Ralf Stockmann
0:34:41
Tim Pritlove
0:36:02
roddi
0:36:09
Ralf Stockmann
0:36:12
Tim Pritlove
0:36:15
roddi
0:36:38
Ralf Stockmann
0:37:37
roddi
0:37:37
Ralf Stockmann
0:38:39
roddi
0:38:43
Ralf Stockmann
0:38:48
roddi
0:38:50
Tim Pritlove
0:38:57
roddi
0:39:01
Ralf Stockmann
0:39:07
Tim Pritlove
0:39:12
roddi
0:39:14
Ralf Stockmann
0:40:00
Tim Pritlove
0:40:04
roddi
0:40:13

Also das Ding ist, dass vielleicht bin ich ja, nachdem Tschernobyl damals in meiner Jugend war, immer noch so ein bisschen geschädigt von, da gibt es eine Möglichkeit, dass man, machen wir das Klicken wieder aus, das nervt. Und es gibt da eine Möglichkeit, dass da was passiert, was ich hinterher nicht spüren kann oder nicht sehen kann, nicht messen kann, wenn ich nicht so ein Ding habe. Und deswegen habe ich über die letzten Jahre immer mal wieder geguckt, was kosten eigentlich brauchbare Strahlungsmessgeräte. Und das war immer so, es ging irgendwie immer so bei 600 Euro los für irgendwie so Dinger, wo man das Gefühl hatte, die funktionieren doch nicht richtig. Das ist doch billiges Plastik und das ist doch alles irgendwie so. Und jetzt haben diese Radiacode-Leute, fängt halt bei 300 Euro an für so ein Gerät, das ist natürlich jetzt schon so ein bisschen, wie soll ich sagen, einfach mal ein Gamble, wenn ich das jetzt kaufe, ist das jetzt brauchbar oder nicht. Aber gerade deswegen bin ich so erstaunt, dass das Teil wirklich so gut ist. Und ja, und dann habe ich das gesehen, habe ich dann irgendwie zwei Tage rum überlegt. Dann dachte ich, ach, kauf es einfach mal ein und guck es mal. So, und die App, die es dazu gibt, ist auch sehr geil, muss man sagen. Die kann sogar einen Track aufzeichnen. Wenn ich also spazieren gehe, kann ich den Track-Funktion anschalten und dann sehe ich hinterher, wie viel Strahlung war denn wo, wo ich vorbeigelaufen bin. und so. Und das geilste Hidden Feature ist, also das Teil hat so ein Display, das ist so Landscape, da stehen da Zahlen drauf und so weiter, aber man kann es halt so halten, dass das Display links ist und man kann es so halten, dass das Display rechts ist. Und er schaltet tatsächlich das Display um. Die Zahlen sind immer richtig rum, egal wie rum ich es halte, weil er die dann dreht. Und als notorischer Linkshänder, der sich immer beschwert, dass Dinge für Linkshänder nicht brauchbar sind, finde ich das natürlich absolut geil, dass du das da in der linken wie in der rechten Hand halten kannst. Das zeigt immer richtig an. Also, ähm, Wie gesagt, ist vielleicht jetzt kein Spielzeug für jeden, aber für mich, der ich der Meinung bin, ich will schon wissen, was um mich herum passiert, war das irgendwie dann doch das Ding.

Ralf Stockmann
0:42:44
roddi
0:42:48
Tim Pritlove
0:43:09
roddi
0:43:18
Tim Pritlove
0:43:42
roddi
0:44:12
Tim Pritlove
0:44:15
roddi
0:44:19
Tim Pritlove
0:44:36
roddi
0:44:44
Tim Pritlove
0:45:03
roddi
0:45:26
Tim Pritlove
0:46:21
Ralf Stockmann
0:46:34

Ich habe was gemacht. Ich konnte es wieder nicht lassen. Habe in der Tat fast die Nacht durchge- na, gecodet, sagt man ja heutzutage jetzt nicht mehr, die Nacht durchgepromptet, um mal etwas zu bauen. Also was ist passiert? Ich habe mich irgendwie vor zwei Tagen mal wieder ein bisschen aufgeregt auf Mastodon, warum eigentlich jetzt im aktuellen Wahlkampf dort so wenig prominente, Politikerinnen auch von den progressiven oder scheinbar progressiven Parteien eigentlich im Fidiverse unterwegs sind. Ich glaube, Aufhängepunkt war, dass hier die neue Vorsitzende der Linke auf TikTok jetzt so steil geht, mit dem Video aus dem Bundestag, was ich in der Tat auch wirklich sehr, sehr feiere. Aber warum ist sowas nur auf TikTok und nicht auch irgendwie im freien Internet? So, dann habe ich mich halt ein bisschen aufgeregt und habe irgendwie ein bisschen was gesucht und dann bin ich über eine Seite gestolpert. Codeberg.org ist glaube ich auch hier irgendwo so halb in Berlin ansässig, ist ein eigentragener Verein zur Unterstützung freier offener Software. Infrastruktur habe ich mich jetzt noch gar nicht so intensiv mit beschäftigt. Die haben eine Seite, betreiben die schon seit etlichen Jahren, mindestens vier Jahren glaube ich, wo sie mal sammeln, welche politischen Akteure und Institutionen eigentlich im Fediverse vertreten sind. Der großen Parteien, sowohl Einzelaccounts als auch Parteiaccounts, als auch nochmal Wissenschaftler, beziehungsweise Einrichtungen von Bundesbehörden und so weiter. Ziemlich langes Ding. Sieht auf den ersten Blick erstmal ganz interessant aus. Und da dachte ich so, das ist ja schön, dass das mal jemand gemacht hat. Da hätte ich doch jetzt ganz gerne meine statistische Auswertung drüber. Und die gibt es halt nicht auf der Seite. Es hat einfach nur eine Markdown-Datei mit ein paar Tabellen drin. Und dann sagte ich mir, naja, wir leben in 2025. Da gucken wir doch mal, wie weit wir in einer halben Stunde kommen, um da mal ein bisschen eine Datenvisualisierung drüber zu machen. Und das habe ich jetzt mal gebaut. Tim, jetzt müsstest du vielleicht mal meinen Screen auf unserem Beamer größer machen und wir versuchen zu beschreiben, was es ist. Ich werfe das auch mal in den Chat rein. Das ist noch nicht publiziert. Ich muss da noch ein bisschen was am Caching drehen, damit ich nicht tausende von Leuten völlig nutzlos irgendwelche Instanzen mit Statistikabfragen beballern. Da muss ich mir noch das eine oder andere Clevere einfallen lassen. Was macht jetzt dieses Tool? Das nimmt diese Markdown-Datei und passt die durch. Wer ist davon eigentlich noch aktiv? Wie viele haben die Leute eigentlich jemals überhaupt gepostet im 4Diverse und welcher Partei sind sie eigentlich zugeordnet? Und das Ganze wird jetzt immer so ein bisschen visualisiert auf verschiedene Arten und Weisen. Wenn man das also jetzt neu aufbaut, dann schieben sich hier die Balken so ordentlich rein. Wir sehen, wir haben insgesamt 259 Parteien- oder Einzelpersonen-Accounts und dann gibt es noch ein paar Institutionen-Accounts, die sind unten drunter. Das ist aber noch ein bisschen buggy, aber das oben für die Parteien funktioniert ganz gut. Und jetzt sehen wir halt erstmal oben in einem Balken die Verteilung der Accounts im Fettiverse über die verschiedenen Parteien.

Tim Pritlove
0:50:05
Ralf Stockmann
0:50:08

Aber du siehst das gerade. Genau, aber wir beschreiben es, genau. Wir sehen also jetzt einfach einen Balken, verschiedene Farben. So, und dann sehen wir, oder wir hören jetzt, dass wir sehen, grüne 115 Accounts, das ist viel. Davon auch nur ein Bot. Linke 61, davon aber 25 Bots. Also Bots sind dann Accounts, die zwar da sind, aber die einfach nur eins zu eins von einem anderen System, sei es Blue Sky oder was der Geier, was halt die Nachrichten durchtunneln. SPD 38, zwei Bots davon. Die Partei, relativ prominent, mit 23 Accounts. Piraten auch nur noch sieben Accounts. CDU 6, Volt 5, FDP 3, Freie Wähler 1. Und Bündnis Sarah Wagenknecht und AfD tauchen zumindest jetzt in dieser Markdown-Datei mit keinem einzigen Account auf. Keine Ahnung, ob das jetzt... Ob irgendwie so moderiert ist, dass die dort nicht erscheinen wollen oder ob die wirklich keinen einzigen Fediverse-Account haben, man weiß es nicht. So und unten drunter habe ich nochmal einen Zeitstrahl gebaut, wo man sehen kann, wann sind die jeweiligen Accounts eigentlich dem Fediverse beigetreten. Und da sieht man jetzt relativ schön die beiden quasi Musk-Events. Zum einen, als er zum ersten Mal sagt, ich hätte Interesse mal Twitter zu kaufen. Das war im April 2022, da ist die erste Beitrittswelle und die zweite Beitrittswelle, als er es dann wirklich gemacht hat. Das war dann im Oktober 2022 des selben Jahres. Und man sieht also, dass es dort eine starke Ballung gibt. Man kann oben auf eine Partei draufklicken, bekommt dann den Zeitstrahl nur von dieser Partei angezeigt. Ich kann mal einen Screenshot davon wieder in den Chat reinwerfen, wie es jetzt beispielsweise nur bei den Grünen aussieht. Das haben wir so. Wir haben unten drunter dann einen Freitextfilter, wo man beispielsweise mal gucken kann, ich tippe mal Berlin ein. Welche Politiker-Accounts haben denn irgendwas mit Berlin in ihren Metadaten drin hängen? Und wir haben dann bei den Einzelaccounts eine Zuordnung, welcher Partei sind sie angehörig mit ein bisschen Logik dahinter, wo sich das daraus ableitet. Das funktioniert jetzt glaube ich ganz gut, wie ich das reingedrechselt habe und wir haben, das finde ich dann fast den entscheidenden Faktor, wie viele Leute haben die insgesamt schon gepostet und wie viele haben sie aber auch innerhalb der letzten 60 Tage gepostet. Das heißt also, lebt dieser Account eigentlich noch? Und das ist etwas, was ich jetzt so als aktiv bezeichne. Also jetzt ist Bundestagswahlkampf. Also wenn die Leute jetzt nicht aktiv sind, wann dann? Da finde ich also 60 Tage jetzt schon sehr generös. Und dann sieht man halt die doch etwas deprimierende Erkenntnis von den 259 Accounts, die da sind und die irgendwas gemacht haben, sind in den letzten 60 Tagen nur 57 aktiv gewesen. Das sind gerade mal 22 Prozent. Der Rest sind Karteileichen, wenn man so will. Das ist etwas betrüglich, aber ich finde das mal so visualisiert und durchsuchbar mal zusammen zu haben, finde ich vielleicht mal ganz hilfreich. Jetzt überlege ich noch, was ich damit mache, ob ich das ganze Framework dann nochmal erweitere, dass man da auch andere Datenquellen hinterhängen kann. Beispielsweise halt irgendwie Uni-Accounts oder Bibliotheks-Accounts oder was auch immer. Und man so ein bisschen den Eindruck dafür bekommt, so okay, wie entwickelt sich eigentlich hier das Fediverse, wenn es eben um solche zentralen Player geht. Journalistinnen, gibt es auch diverse Listen von, weiß ich. Mal gucken, ob ich mich damit noch ein bisschen weiter beschäftige. Und ich werde das, denke ich, am Wochenende mal auf GitHub abwerfen.

Tim Pritlove
0:54:04
Ralf Stockmann
0:54:09
Tim Pritlove
0:54:47
Ralf Stockmann
0:54:51
Tim Pritlove
0:55:02
Ralf Stockmann
0:55:04
Tim Pritlove
0:55:06
Ralf Stockmann
0:55:09
Tim Pritlove
0:55:18
Ralf Stockmann
0:55:22
Tim Pritlove
0:55:57
Ralf Stockmann
0:56:02
Tim Pritlove
0:56:49
roddi
0:57:08
Ralf Stockmann
0:57:21
Tim Pritlove
0:57:28
Ralf Stockmann
0:57:30
Tim Pritlove
0:58:11

Da bin ich ganz bei dir und das ist auch gerade bei mir eigentlich auch so das Ding. Bleiben wir doch vielleicht gleich mal bei dem Thema, weil ich ja jetzt hier auch quasi mir vorgenommen habe. Ja, was habe ich mir vorgenommen? Ich habe mir vorgenommen, hier Land und Leute ein bisschen kennenzulernen, ein bisschen Urlaub zu machen und ich habe mir, vorgenommen, viel zu programmieren. Also so mein Sport programmieren. Kennt ihr noch diese Aufkleber, die Leute da hinten so an die Autos dran machen? Mein Sport und dann Tennis oder sowas. Und dann So einen Aufkleber hätte ich auch gerne. Mein Sport und Laptop und Coding. Einfach so als Freizeitsport. Nicht als Beruf, sondern so als Sport. Und das finde ich tatsächlich in dem Zusammenhang wirklich sehr interessant. Da sollten wir vielleicht mal kurz auf Cursor zu sprechen kommen. Weil wie du auch, geht es mir auch. Und ich muss sagen, als du das erste Mal ankamst mit irgendwie, ich habe mir jetzt mal hier was zusammengebaut mit deinem Mastodon. Die Mastowall. Die Mastowall, so. Da war ich ja schon noch etwas skeptisch. Aber ich muss sagen, diese Skepsis habe ich mittlerweile komplett abgelegt und behaupte das Gegenteil. Da sind wir einem... Einer Zeitenwende stehen wir gegenüber. Die findet jetzt gerade statt und zwar massiv. Und das ist genau das, was du gerade so beschrieben hast. Es ist auf einmal diese, wie nennt man das, so eine Wand eingerissen worden zwischen Leuten, die quasi über Systeme kreativ nachdenken, im Sinne von es müsste mal geben das und wäre es nicht toll, wenn wir dieses Tool hätten. Und den tatsächlichen Werkzeugen, die man benötigt, um so etwas auch umzusetzen, was ja in der Regel immer so ein bisschen Experten braucht, die dann aber vielleicht mit dieser Idee nicht so viel anfangen können oder die nicht so verstehen oder keine Zeit haben oder zu teuer sind oder alles Mögliche. Und man stand dann immer so ein bisschen doof da. Jetzt kann man natürlich sagen, wieso streng dich doch ein bisschen an. Aber es ist halt so, man steckt ja oft mit seinem Kopf, mit seiner Tätigkeit, mit seinen Interessen, mit seiner Zeit in ganz anderen Kontexten und auch anderen Lebenswelten und Erfahrungswelten. Aber genau da gebiert man ja dann diese Ideen und sagt so, man müsste das mal automatisieren, man müsste hier mal gucken, man müsste hier mal eine Auswertung machen und so weiter und da bräuchte man ja eigentlich nur das und das. Das kann doch so schwer nicht sein. Und dann setzt man sich halt irgendwie ran und verbringt dann irgendwie erstmal die ersten zwei Tage, in denen man auf irgendwelche komischen Syntax-Errors schaut oder Konfigurationsdateien, einfach nur um sein Environment erstmal an den Start zu bekommen und dann bricht natürlich irgendwie die Zeit dann auch komplett weg. Und jetzt mit den AI-Tools, läuft das auf einmal ganz anders. Da gibt es diese Einstiegshürde mittlerweile fast gar nicht mehr. Also so ein Projekt anlegen und mal so grundsätzlich. Mittlerweile investiere ich einfach die Zeit in Nachdenken und schreibe dann das Konzept erstmal auf. Und wenn man dann irgendwie da diese Coding Agents draufwirft, dann wird es wirklich spannend. Also umso akkurater man beschreiben kann, was man eigentlich haben will, was es tun soll. Im Prinzip so ein White Paper, was früher mal keiner lesen wollte, das schreibt man da jetzt irgendwie rein und nimmt das sozusagen schon mal als Diskussionsbasis und sagt so, hier, liest du das mal durch, das ist irgendwie das, wie ich denke, wie das funktionieren sollte, jetzt helfen wir mal hier irgendwie Datenbank dafür aufzubauen und den ganzen anderen Kram zusammen zu bekommen und das funktioniert. Also das hat seine Grenzen und läuft man auch mal gegen eine Wand und da wird auch ein bisschen zu viel durcheinander halluziniert, Aber das ist alles völlig egal. Also der Produktivitätsfortschritt ist real und ist so schnell und so massiv und so krass, dass wenn man da mal jetzt ein bisschen Zeit investiert und sich quasi mit dieser Wesenslage, dieser Systeme ein bisschen beschäftigt und die Erfahrung mal jetzt ansammelt, um da überhaupt erstmal umzugehen, dann sind die Ergebnisse halt wirklich krass. Und Cursor, gut, das ist jetzt das, was ich halt viel verwendet habe und auch immer noch verwende, mir kommt das irgendwie entgegen. Es gibt andere Systeme, die ja auch schon erwähnt wurden, wie Z oder natürlich hier Co-Pilot und so weiter. Das ist eigentlich ziemlich egal. Mittlerweile finden diese Systeme überall Anklang und so. Nur Cursor scheint mir irgendwie so das Beste zu sein, um mal so eben durchstarten zu können mit egal, was man will. Ja, und die Verbesserungen sind einfach täglich zu sehen. Und ich verlinke mal so einen Blog-Eintrag, der vielleicht jetzt Roddys Gedanken ganz, ganz gut auch wiedergibt, weil das, sagen wir mal, für erfahrene Programmierer natürlich auch eine Gefahr darstellt, so zu programmieren. Also während wir jetzt so, Ralf und ich, so oft nicht die Zeit hatten, jetzt viel kurz zu machen, weil wir uns irgendwie mit anderen Sachen beschäftigt haben, aber die ganze Zeit auf die Ideen gekommen sind für Systeme, die man mal so brauchen könnte, ist es natürlich jetzt für Programmierer, die so richtig im Thema sind, ihr System beherrschen, die Betriebssysteme beherrschen, die APIs kennen und sagen wir mal, auch wirklich so. Jedes Semikolon, was am falschen Platz ist, auch einfach sofort erkennen. Und wenn man dann mit AI-Tools arbeitet und sich da helfen lässt, dann läuft man natürlich Gefahr, diese Erfahrung, diese Hardcore Einschleifung und dieses krasse Training, was man ja im Prinzip hat, zu verlieren. Es ist so, als ob jetzt irgendwie ein 100-Meter-Sprinter irgendwie die ganze Zeit die Straßenbahn nimmt. Und da muss man natürlich aufpassen, dass man an der Stelle seine Fähigkeiten nicht verliert. Und dieser Blogpost hier von hier ist der Typ nochmal, weiß ich jetzt gerade gar nicht, steht das hier irgendwo bestimmt. Auf jeden Fall beschreibt er, wie er halt irgendwie auch mit Cursor gearbeitet hat und dann einfach schnell in so eine Situation reingekommen ist, wo er einfach dann nicht mehr verstanden hat, was der Code macht, nicht mehr diesen Lerneffekt, diesen Trainingseffekt hat und jetzt zwingt er sich halt regelmäßig dazu irgendwie so zumindest mal einen Tag die Woche die Tools nicht zu benutzen, sondern sich wirklich mal jede Fehlermeldung durchzulesen. Das ist super tempting. Du hast jetzt irgendein obskures Problem, irgendwas wird falsch berechnet, jetzt könntest du stundenlang da in diesen Code eintauchen, so hat man das normalerweise gemacht. Und jetzt gehst du einfach an den Körper und sagst so, ja, bau mal irgendwie jede dritte Zeile in ein Debug-Statement ein, schmeiß mal alle Variablen raus, dann läuft dieser Code einmal kurz nochmal durch, erzeugt irgendwie so ein fünf Kilometer langes Text-File, dann pastest du das da wieder rein, ja, lies mal durch, sag mir mal was Falsches, so, oh ja, jetzt sehe ich schon das Problem, hier haben wir irgendwie ein Plus und kein Minus und deswegen funktioniert das alles nicht und ich habe das jetzt mal korrigiert und dann so, ah ja, schön, dass wir darüber gesprochen haben, jetzt nehmen wir die ganzen Debug-Statements wieder raus und so, ja, okay, jetzt habt ihr alle wieder jetzt entfernt, jetzt alles wieder wie vorher, aber jetzt berechnet er richtig, so, Turnaround-Zeit irgendwie 30 Sekunden. Und der Hasel läuft, aber es ist klar, dass man dann eben das verliert. Ich wiederum. Sehe es von der anderen Seite. Ich kriege dadurch dieses Training erst, weil ich halt immer wieder vor dieser Problematik stehe, so scheiß, was brauche ich jetzt hier für eine Architektur, was brauche ich jetzt hier eigentlich für Tools, was brauche ich für eine Library, wie setzt man denn das jetzt auf, wie muss denn meine Architektur sein, wie muss denn jetzt hier meine Module verteilen, brauche ich jetzt hier einen Supervisor oder nicht, all so eine Frage. Und jetzt habe ich die Möglichkeit, auch mal eben drei, vier, fünf verschiedene Ansätze auszuprobieren, um dann am Ende zu sehen, so, ah, okay, das ist jetzt wahrscheinlich der Winning Move. Und dann kann ich mir den Code danach anschauen und sagen, so, ah, okay, alles klar, so wird das jetzt hier gemacht. Also ich lerne dadurch, dass ich so die Möglichkeit habe, auszuprobieren. Ich schmeiße einfach ganz viel Farbe an die Wand und schaue, was am besten danach aussieht und kann dadurch halt auch einen Lerneffekt erzielen. Aber es ist natürlich eine Gefahr für Super-Experience-Programmierer, aber es erschließt das Programmieren einer Gruppe von Leuten, die vielleicht bisher bestenfalls Projektmanager gewesen sind. Und während die Projektmanager sonst viel Zeit damit verbracht haben, in irgendwelchen Meetings oder in irgendwelchen Whitepapers anderen Leuten zu erklären, was sie eigentlich haben wollen. Oder Projektmanager ist vielleicht gar nicht das richtige Wort. Wie nennt man sowas? Projektdesigner oder so? Systemdesigner?

Ralf Stockmann
1:07:38
Tim Pritlove
1:07:50
Ralf Stockmann
1:08:42
roddi
1:10:15
Ralf Stockmann
1:10:23

Als auch unseren Kindern. Ja, also ich werde das gar nicht zu tief elaborieren, aber ich, also was ich jetzt auch heute Nacht wieder sehr stark gemerkt habe, ich hätte nach ungefähr 20, 30 Minuten wäre ich stecken geblieben, wenn ich nicht einigermaßen leidlich programmieren könnte, selber. Und auch nicht nur eben so ein bisschen Birdseye-View-Wissen im Sinne von so, das sind jetzt so die gängigen Frameworks, sondern eben schon auch ein bisschen einen Sinn dafür habe, so, warum kommt jetzt folgender Fehler und wo würde jetzt hier ein Debugging, was ist überhaupt ein Log, ja, warum ist es überhaupt sinnvoll, einen Log mitschreiben zu lassen, irgendwie so. Das sind einfach Dinge, die musst du halt irgendwann irgendwie mal gelernt haben. Und für mich ist wirklich eine der großen Fragen der nächsten Jahre. Ob jetzt so ein Tool wie Cursor noch so viel besser wird, dass das auch nicht mehr notwendig ist, sondern wo also das Verständnis darüber, wie man funktionierenden fehlerfreien Code schreibt, noch mal quasi die letzte Schippe draufgelegt wird, dass man diese ganzen Debugging-Optimierungsprozesse auch nicht mehr braucht. Und das ist für mich eine ganz offene Frage. Wenn man mich also vor, habe ich auch schon mal ziemlich wortwörtlich so in der Sitzung gesagt, also ich konnte mir im Bereich KI immer viel vorstellen, aber ich finde es nach wie vor verstörend, dass gerade Programmierung so gut damit geht. Ich hätte gedacht, dass das so eine der letzten Bastionen ist, die nie oder ganz spät erst fallen werden. Und jetzt ist es mit das Erste, was umgeworfen wurde. Ist das aber jetzt auch schon auf einem Plateau oder wird das auch noch den entscheidenden letzten Schritt besser, dass die Menschheit in zehn Jahren wirklich nicht mehr programmieren können muss, weil das komplett die KI macht?

roddi
1:12:10

Also ich habe ja da immer dieses Zitat von Steve Jobs im Hinterkopf, Bicycle for the Mind, wo er immer gesagt hat, der Computer ist the bicycle of the mind, also dieses Ding, was einen fürchterlich viel schneller macht. Ich glaube, dass diese Programmier-KIs in eine ähnliche Kategorie fallen, weil du musst am Ende des Tages immer noch wissen, was ist sinnvoll, was will ich erreichen, was soll das Teil tun können und so weiter und auch ... Wie sind die Einzelteile strukturiert und so weiter. Also am Ende ist so eine KI immer ein Textprediktor und der kann dir nur Dinge schreiben, die schon mal jemand vorher geschrieben und veröffentlicht hat. Sonst wird es nicht funktionieren. Und ich glaube, ich glaube, ab einer bestimmten Komplexitätsklasse hast du immer Software, die von Hand geschrieben wurde, damit die überhaupt von der Maschine erst mal gelernt werden kann. Und ich glaube nicht, dass diese Handarbeit je weggeht. Also das, was man früher so schön herabwürdigend Boilerplate-Code genannt hat, ist etwas, was wahrscheinlich sehr stark automatisiert wird. Und was wahrscheinlich auch sehr stark automatisiert wird, ist diese ganze Frage, welche Programmiersprache benutze ich eigentlich? Ich glaube, das ist sowas, was sehr stark in den Hintergrund treten wird. Ob die KI jetzt die oder die oder die Programmiersprache ausspuckt, ist dann nicht mehr so richtig wichtig. Also gerade Nischenprogrammiersprachen werden da extrem drunter leiden. Wenn du nicht den Mindshare von der AI hast und diese Programmiersprache schreiben kannst, dann wird die AI das auch nicht können. Wenn die das nicht kann, dann verschwindet die Sprache, weil niemand mehr die Sprache beherrschen wird. Es gibt keine neuen Beispiele, wie es funktioniert und, und, und. Und vielleicht geht es sogar so weit, dass wir irgendwann dann auch kaum noch neue Programmiersprachen sehen werden. Weil die natürlich keiner benutzt, weil es keine AI gibt, die diese Programmiersprachen kann. Also ich glaube, da geht der Zug hin. Die Frage ist natürlich erreicht die AI in dem was sie tut eine Komplexitätsstufe, dass der Mensch das nicht mehr versteht, was die AI tut, dann ist handgeschriebene Software natürlich raus, das ist ganz klar also ob wir das erreichen werden oder nicht, keine Ahnung kann jetzt jeder raten, es würde mich nicht wundern, wenn es passiert aber dann ist es natürlich klar, ja dann bist du als Programmierer raus aber gut, es gibt auch Menschen, die sowas schreiben, was andere dann nicht mehr verstehen, manchmal passiert das einfach so Ich glaube.

Tim Pritlove
1:15:09

Da ist viel Wahres dran, an dem was du gesagt hast, aber es gibt wahrscheinlich sogar noch ein paar andere Strahlen die hier noch mit reinleuchten können, es ist zum Beispiel durchaus vorstellbar, dass wir demnächst IIs haben, die Programmiersprachen entwerfen werden. Oder dass sich sozusagen überhaupt ein neuer Layer zwischen Computern und AIs bildet, also dass quasi die AI schon fast zum Betriebssystem wird. Dass wir dieses ganze, wir benutzen ein Betriebssystem, was irgendwie für die Programmierung durch eine Programmiersprache gedacht ist, dass das komplett wegfällt und wir eigentlich nur noch so einen einzigen Processing-Blob haben, der irgendwie freigeistig seine Daten durch die Gegend schaufelt, gesteuert eben durch Sprache. Das ist sicherlich auch so ein Punkt. Andererseits bin ich auch ganz bei dir, wenn du sagst, das normale Programmieren ist immer noch erforderlich und das ist auch absolut richtig. Also ich hätte jetzt zum Beispiel meine ganzen Sachen auch nicht machen können, wenn ich nicht schon eine relativ klare Vorstellung von Programmieren habe. Und ich glaube auch, dass ich nochmal sehr viel besser mit einer AI arbeiten kann, umso besser ich poemieren kann. Also umso mehr man überhaupt das Poemieren als solches verstanden hat, aber auch die Poemiersprache zu können. Man muss auch in der Lage sein, Fehler zu finden, man muss auch in der Lage sein, eine richtige Richtung anzugeben. Man kann nicht einfach auf eine Baustelle gehen und anfangen, irgendwie den Leuten ihre Arbeit zu erklären und sie durch die Gegend zu schicken, wenn du einfach Bau nicht verstanden hast. Du brauchst immer noch ein Domänenwissen. Und das ist beim Programmieren nur mal die Programmiersprache und das Wissen um Betriebssysteme und Caching und Networking und Protokolle und all dieser ganze Kram. Also da ist schon noch eine ganze Menge drin zu lernen. Und ich würde halt jetzt auch niemandem ein Projekt überlassen, Der sagt ja, ich habe keine Ahnung, aber ich habe da jetzt mal eine halbe Stunde reingequatscht und da kam ja schon irgendwas Brauchbares bei raus. Ich kann jetzt alles.

roddi
1:17:20
Ralf Stockmann
1:18:43
roddi
1:18:45
Tim Pritlove
1:18:55
roddi
1:18:59
Tim Pritlove
1:19:02
Ralf Stockmann
1:19:19
Tim Pritlove
1:19:22
roddi
1:20:19
Ralf Stockmann
1:20:22
roddi
1:20:26
Tim Pritlove
1:20:29
roddi
1:20:35
Tim Pritlove
1:20:40
roddi
1:20:43
Ralf Stockmann
1:21:01
roddi
1:21:02
Ralf Stockmann
1:21:08
Tim Pritlove
1:21:28
Ralf Stockmann
1:21:32
Tim Pritlove
1:22:03
Ralf Stockmann
1:22:05
Tim Pritlove
1:22:07
Ralf Stockmann
1:22:39
Tim Pritlove
1:22:42

MCP steht für Model Context Protocol und das ist eine Erfindung von Anthropic, also der Hersteller von Sonnet, von dem Modell, also von Claude und dem Claude Sonnet, das Modell, was wir jetzt gerade besprochen haben. Und Model Context Protocol ist, wie der Name sagt, ein Protokoll, was quasi definiert, wie eine AI auf Daten zugreifen kann. Und das ist so ein Client-Server-Protokoll und man kann das im Prinzip in beide Richtungen benutzen. Das heißt, man kann für ein Modell definieren, wie dort Daten reinkommen, indem man es als Client benutzt, aber man kann vor allem für Daten ein Server-API, hat man jetzt sozusagen für Daten ein Server-API, man kann also ein Server für Datensilos schreiben, um einer AI darauf Zugriff zu bekommen. Beispiel. Das Beispiel, was sie auch gleich mitgeliefert haben. Also sie haben das so im letzten November haben sie das vorgestellt und mittlerweile ist es jetzt in Cursor drin. Also wenn du jetzt Cursor updatest in den Settings, mal guckst, dann hast du quasi MCP-Server, die da mehr oder weniger schon mit supported werden oder MCP-Server werden supported und das ist noch ein bisschen, fitzelig, aber worauf ich hinaus wollte ist, sie haben halt was gebaut für Systeme wie Google Drive, Slack, GitHub, Git, Postgres und Puppetierer weiß ich gar nicht, was das ist, um ehrlich zu sein. Soll heißen, du kannst über MCP eine AI Zugriff geben, zum Beispiel auf Postgres. Und das sieht dann so aus, dass du dann sagst, so eine Postgres-URL gibst mit hier über diesen User-Login, AddHost, AddPort, tralala, mit diesem Pfad und hier benenne ich die Datenbank, kannst du quasi direkt einen Zugriff geben auf die Datenbank über das MCP-Protokoll. Und dann redet das Ding mit deiner Datenbank. Und dann kannst du quasi in deiner relationalen Datenbank genauso rumrecherchieren und deine AI spielen lassen, wie du das eben vorher mit normalen Files gemacht hast, mit Textfiles gemacht hast. Also du kannst halt eine dicke, fette Datenbank nehmen und sagen, analysier mal das. Aber du kannst halt genauso auch auf GitHub, Git generell, also auf Git-Repository, in ein Slack hinein Dinge erfragen. Das ist ziemlich mindblowing. Genau. Und solche Systeme kommen jetzt irgendwie raus. Das wird ganz spannend werden. Habe ich jetzt noch nicht so viel mit rumgespielt. Ich habe mal diesen Postgres-MCP einmal so zum Laufen bekommen. Da muss man irgendwie so NPM installieren und so weiter. Luca hat mir gesagt, wie ich das machen muss und ich habe es gemacht und es hat dann irgendwie funktioniert. Aber dann hatte ich irgendwie auch gerade wieder keine Zeit. Und das ist auch in dieser Cloud-Desktop-App drin, dieser MCP-Server-Support. Kann man auf jeden Fall demnächst noch einiges erwarten.

Ralf Stockmann
1:25:53
Tim Pritlove
1:27:05
Ralf Stockmann
1:27:36
Tim Pritlove
1:28:05
Ralf Stockmann
1:28:08
Tim Pritlove
1:28:14
Ralf Stockmann
1:28:19
Tim Pritlove
1:28:25
Ralf Stockmann
1:28:29
Tim Pritlove
1:28:36
Ralf Stockmann
1:28:41
Tim Pritlove
1:29:00
Ralf Stockmann
1:29:01
Tim Pritlove
1:29:38

Genau, wir werden uns das angucken, genau. So, wo wollen wir denn jetzt hin? Achso, ich habe noch ein paar Geräte-Updates, weil ich ja hier mit neuem Gerät unterwegs bin, auf meiner Reise. Unter anderem habe ich mir für die Reise ein Rodecaster Duo besorgt der Rodecaster Duo ist quasi die kleine Version vom Rodecaster Pro 2, den ich ja ganz toll finde und zu dem ich irgendwie auch auf dem letzten Kongress wie schon erwähnt nochmal so einen kleinen Talk gemacht habe und ja der viele Vorteile hat auch ein paar Nachteile, zu denen ich mich ja auch schon geäußert habe. Jetzt habe ich mir diesen Duo geholt, der deshalb Duo heißt, weil er eben nicht vier Mikrofoneingänge hat, sondern zwei. Beziehungsweise genau genommen hat er nicht zwei Mikrofoneingänge, sondern ich rede von zwei XLR-Mikrofoneingängen. Denn das Gerät hat noch ein paar Besonderheiten. Ich hatte ja auch im Sendegate mal diesen Rodecaster 2 Review gemacht. Das können wir hier auch nochmal verlinken. Und ich habe dem meine Gedanken zum Rodekaster Duo jetzt noch hinzugefügt. Also sozusagen eine Aktualisierung. Ich packe mal den Link auch nochmal in die Shownotes. Genau, im Wesentlichen, also vier statt sechs Sliders, Slider ein bisschen kürzer, sechs statt acht Buttons zum Abspielen, Displays genauso groß, paar andere kleine Sachen. Eine Sache hat sich verändert, die zwar noch keine positiven Auswirkungen hat, aber was durchaus eine Forderung von mir gewesen ist für ein künftiges Update von dem Rodecaster Pro 2 ist nämlich, dass die Lautstärkeknöpfe jetzt Soft-Buttons sind. Also die sind sozusagen keine manuellen Potentiometer mehr mit einem festen Anschlag, sondern sind so frei, wie nennt man denn sowas, so Rotatoren, so freidrehende, beliebig weitdrehende Knöpfe, die so einen LED-Ring drumherum haben. Mit anderen Worten, man kann da jederzeit per Software auch sagen, welchen Wert sie haben, theoretisch.

Ralf Stockmann
1:31:59
Tim Pritlove
1:32:00
roddi
1:32:30
Tim Pritlove
1:32:31
roddi
1:32:45
Tim Pritlove
1:32:52
roddi
1:33:02
Tim Pritlove
1:33:04
Ralf Stockmann
1:34:18
Tim Pritlove
1:35:09
Ralf Stockmann
1:35:13
Tim Pritlove
1:35:21
Ralf Stockmann
1:35:26
Tim Pritlove
1:35:30
roddi
1:36:04
Tim Pritlove
1:36:09
roddi
1:36:36
Tim Pritlove
1:36:40
Ralf Stockmann
1:37:28
roddi
1:37:41
Ralf Stockmann
1:37:44
roddi
1:37:56
Ralf Stockmann
1:38:03
roddi
1:38:05
Ralf Stockmann
1:38:32
roddi
1:38:34
Tim Pritlove
1:38:36
roddi
1:38:39
Ralf Stockmann
1:39:03
Tim Pritlove
1:39:05
Ralf Stockmann
1:39:07
roddi
1:39:09
Tim Pritlove
1:39:12
Ralf Stockmann
1:39:14
Tim Pritlove
1:39:15
Ralf Stockmann
1:39:18
Tim Pritlove
1:39:19
roddi
1:39:21
Tim Pritlove
1:39:39
roddi
1:39:44
Ralf Stockmann
1:39:46
roddi
1:39:48
Ralf Stockmann
1:39:57
Tim Pritlove
1:39:59
Ralf Stockmann
1:40:06
Tim Pritlove
1:40:07
Ralf Stockmann
1:40:08
roddi
1:40:13
Ralf Stockmann
1:40:15
roddi
1:40:18
Ralf Stockmann
1:40:21
roddi
1:40:26
Ralf Stockmann
1:40:36
roddi
1:40:39
Ralf Stockmann
1:40:47
Tim Pritlove
1:40:48
Ralf Stockmann
1:40:51
Tim Pritlove
1:40:54
Ralf Stockmann
1:41:12
roddi
1:41:12
Tim Pritlove
1:41:13
roddi
1:42:06
Tim Pritlove
1:42:11
Ralf Stockmann
1:42:46
Tim Pritlove
1:42:49

Ja, sicherlich. Der Moment, jetzt hast mich ein bisschen aus der Spur gebracht. Ich mach das mal eben. Ich hab schon so. und, kann ich euch nur empfehlen, euch mal so ein paar Reviews anzuschauen, was das Ding alles kann. Das ist wirklich irre. Wofür ist es gedacht? Das ist, wenn man jetzt quasi mit Video raussendet. Also so typischerweise YouTube-Videos macht, dafür ist es im Wesentlichen gedacht und du möchtest alles irgendwie in Realtime machen. Und du kannst also ganz viele HDMI-Quellen anschließen, also von diesen 6 HDMI-Ports sind 4 Eingänge und 2 sind Ausgänge. Das eine benutzt du als Primärausgang, das andere benutzt du so als Monitorausgang. Und diese USB-C Ports, die es da gibt, die sind teilweise auch nochmal nur dafür gemacht, ein Mikrofon oder eine Webcam anzuschließen. Oder dann eine Festplatte zum Abspeichern oder nochmal einen anderen Computer. Und natürlich auch Stromversorgung darüber. SD-Karte kannst du auch noch reinstecken, also es ist wirklich alles so ein bisschen da. Sprich, du kannst das Ding in so einem HD, 4K, Webcam Dings anschließen und ganz viele HDMI-Quellen noch dazu schalten und du kannst dann eben über die wenigen Tasten vorne so all die ganzen Quellen live umschalten, du kannst dir mit der Rode-Software aber auch direkt am Gerät auch so Screens zusammenbauen, wo du sagen kannst okay, jetzt will ich einen Bildschirm haben und rechts oben soll die Quelle sein, links unten die Quelle so, was weiß ich, hier Bild von mir selber mit der Kamera und dann halt der Rechner und dann nochmal hier ein HDMI-Device. Also du kannst das alles hier zusammenbauen und so fertige Setups einfach abrufen. Und es bedient sich alles ganz super und es ist wirklich ein tolles Gerät. Und außerdem hast du noch Audio noch mit dabei. Also das ist schon wirklich heftig, was die da bauen. Und ich muss sagen, Rode ist da auf einem sehr guten Weg. Also wenn sie ihr Midi-Game nochmal auf die Kette kriegen, dann wäre ich so richtig begeistert. Aber das ist definitiv cool. Das könnte auch interessant sein für Leute, die einfach oft so an Videokonferenzen teilnehmen. Und was zeigen. Weißt du? Also kannst du ja auch eine eigene Banderole einblenden und deinen Namen einblenden. Keine Ahnung. Und dann hier so, jetzt schalte ich mal auf den Rechner und jetzt schalte ich auf die Präsentation und jetzt zeige ich mich selber. Und jetzt habe ich rechts oben meine Präsentation und links sieht man aber trotzdem noch mein Gesicht. Also wenn man wirklich viel online, live in irgendwelche Zoom-Meetings rein präsentiert und dabei irgendwie schick rüberkommen will, ohne viel Aufwand zu haben und ohne mit einer komplizierten Software arbeiten zu müssen, dann ist der RodeCaster Video richtig Bombe.

roddi
1:45:45
Tim Pritlove
1:45:48
roddi
1:45:53
Tim Pritlove
1:45:58

Genau, den wollte ich nochmal empfehlen. Wie gesagt, nicht selber handgetestet, weil ich nicht so die Anwendung habe, Aber ich fand das Gerät total beeindruckend. Dann habe ich ja noch ein anderes Gerät hier an der Mache, nämlich die Apple Vision Pro vom DOM, die ich ja hier mit auf Reisen genommen habe. Und jetzt habe ich ja mal so richtig Zeit, das Ding ausführlich zu testen. Ich will jetzt gar nicht so viel erzählen, weil so viel Neues gibt es jetzt nicht. Ich will nur andeuten, dass ich meine Meinung, glaube ich, in ein paar Bereichen überarbeiten werde, weil ich schon auf einmal mehr Nutzen gefunden habe, als ich dachte. Ich habe den jetzt halt vor allem so als großen Bildschirm quasi dabei, ohne einen großen Bildschirm dabei zu haben und genieße sehr diesen neuen Mac Monitor Modus und das ist also gerade so zum Programmieren ist das irgendwie ziemlich cool, also wenn man wirklich so Sessions macht und jetzt nicht nur auf so einen 13 Zoll Bildschirm starren will, sondern, sehr viel Platz für den Editor haben will und nochmal Platz für irgendwelche Videos und Dokumentationsseiten und hier noch ein Terminal, was mitläuft, dann ist es wirklich grandios, weil seit diesem 2.2 Update, wo du diesen Riesen, also aus deinem Rechner sozusagen so einen Riesenmonitor machen kannst, ist es wirklich krass. Ich habe mir dann auch nochmal diese Lesebrilleneinsätze dafür noch gekauft, in einer relativ starken Variante. Das ist für mich immer noch sehr schwierig, dass alles so einzusortieren, aber ich habe so, ich setze gerade so ein bisschen auf einen Gewöhnungseffekt. Also Sachen, die einem am Anfang sehr störend vorkommen, stören einen nach einer Weile einfach nicht mehr so sehr, beziehungsweise man lernt so ein bisschen damit umzugehen. Also zum Beispiel so dieses Unschärfe bei der Bewegung und dass da immer so ein kleiner Delay drin ist, durchaus etwas, woran man sich gewöhnen kann. Und ich habe da muss ich dir übrigens nochmal danken, Ralf, das hast du mir zwar nicht direkt gesagt, aber ich habe das so am Rande mitbekommen, du hast über diese Halterung, diese Bügelhalterung geredet, die manche sich da dran machen, dieses Gewicht mir auf die Stirn verlagert wird, das habe ich kurz vor der Abfahrt, habe ich mir noch so ein Ding noch geholt und das ist tatsächlich, macht es einen Riesenunterschied aus und auch so diese, Idee mit, man ist gar nicht mehr direkt an der Kamera dran, sondern lässt das Ding einfach nur so ein bisschen vor sich schweben, ist auch durchaus etwas, was man benutzen kann. Also ich habe da noch keine abschließende Meinung zu allem gebildet, aber ich bin auf jeden Fall gerade sehr intensiv dabei, das alles zu überprüfen und nochmal mir dann eine neue Meinung zu bilden. Und zwei kleine Sachen, die mir noch aufgefallen sind, die wir so wie noch nie besprochen haben. Wenn man in diesem Macintosh-Desktop-Modus arbeitet, greift übrigens auch dieses Universal Control. Ihr erinnert euch, Universal Control, man hat mehrere Macs nebeneinander und kann dann irgendwie mit der Maus von dem einen auf alle anderen gehen und vice versa. Also man kann immer mit einem Rechner, den man gerade bedient, alle anderen mitsteuern. Also du gehst halt einfach auf einen anderen Bildschirm und kannst mit der Maus von Rechner A die Apps auf Bildschirmen von Rechner B steuern. Weil die Maus einfach rüber marschiert. Und das Irre ist, das ist mir auch erst jetzt aufgefallen, das geht halt auch in der Apple Vision Pro mit den Apple Vision Pro Apps. Das heißt, wenn ich jetzt den Macintosh auf der Vision Pro habe und ich habe die Maus, dann kann ich mit der Maus den Mac verlassen und in die Apps von der Vision Pro gehen. Die ja entweder Native Vision Pro Apps sind oder iPad Apps sind, aber ich kann tatsächlich mit der Maus die Vision Pro benutzen. Bin ich gezwungen, alles damit zu machen. Das geht natürlich nur, wenn du den Mac hast, sozusagen, aber da verheiraten sich auf einmal so Konzepte, das könnte nochmal ganz interessant werden.

Ralf Stockmann
1:50:30
Tim Pritlove
1:50:34
Ralf Stockmann
1:50:37
Tim Pritlove
1:50:41

Ja, ja. Kannst dann auch in Apple Vision Pro Apps mit der Tastatur reintappen, genau. Und ja, irgendwie man will langsam den Mac einfach in diesem Teil drin haben. Ich kenne auch jetzt, ich habe von Leuten gehört oder Videos gesehen, die sagen so, ja, ich habe jetzt eine Vision Pro und einen Mac Mini. Und der Mac Mini ist so mein Reisecomputer. Der hat aber voll die Power. Ich brauche aber keinen Bildschirm dafür. Ich brauche nur eine Tastatur und eine Maus. Und die habe ich halt irgendwie noch so mit dabei. Und dann nehme ich die Vision Pro und das ist dann mein Bildschirm. Also das könnte noch ganz das könnte noch ganz lustig werden. Ja. Und dann, ach ja genau, und eine App, die habe ich noch entdeckt, das muss ich noch erzählen, die heißt Magic Room. Die tut eigentlich wenig, kostet trotzdem 18 Euro, aber ich musste es kaufen. Und das ist wirklich crazy. Die Apple Vision Pro hat ja so einen LIDAR-Sensor, ähnlich wie das iPhone. Dein Gesicht abtastet, genauso taste diese apple vision pro den raum um dich herum. Gewinnt also die ganze Zeit so ein dreidimensionales Profil und damit realisiert sie halt solche Funktionalitäten wie dieses Durchbrechen der Virtual Reality oder deines Environments, wenn du halt eigentlich nur auf generierten Content schaust, aber irgendjemand nähert sich halt deiner Brille, dann merkt die Brille so, ah, da ist irgendetwas, da kommt eine Person und dann reißt an der Stelle quasi die Illusion auf, damit du dann diese Person siehst. Und genauso dann wird dann auch diese Eyesight aktiv und dann weiß dann die Person, dass du sie siehst und all diese ganzen Tricks, die die Vision Pro so macht und genauso natürlich, um zu verhindern, dass man gegen eine Wand läuft, hast du halt dieses Lida-Ding da irgendwie mit drin. Und diese Funktionalität, auf die können Apps aber auch zugreifen und das tun sie auch ganz gerne. Man braucht da irgendwie zusätzliche Permissions und diese App, die ich jetzt da gekauft habe, Magic Room, die benutzt also diesen LIDAR-Sensor, um in den Raum reinzuschauen. Und erhält quasi in Realtime ein dreidimensionales Abbild der Umgebung. Und was sie dann macht, ist, dass sie diese dreidimensionale Abbild da so eine Art Regenbogenfarben des Gitternetz drüber legt. Das heißt, du stehst vor so einem Schrank und dann siehst du sozusagen so diesen Schrank, als hätte der so aus LED-Fäden so ein Gitternetz aus Dreiecken da drüber. Und dann schaust du nach links und nach rechts und die ganze Zeit refined sich das irgendwo, du schaust so nach oben und langsam baut sich das alles so kumulativ auf. Das heißt, der ganze Raum um dich herum erstrahlt so als Gitternetz. Und das sieht schon mal ganz spacig aus. Sieht besonders deshalb auch spacig aus, weil es auch noch einen anderen Modus gibt, in dem du das Ganze auch noch in so einer Matrix-Optik anschauen kannst. Also dann hast du halt wirklich diese Matrix-grünen Wasserfälle aus Zeichen. Das sieht ganz cool aus. Aber dieses Gitternetz ist eigentlich viel interessanter und zwar aus folgendem Grund, weil dann kannst du nämlich auch aus dem Raum rausgehen und ich bin hier in so einem Haus und dieses Haus hat drei Etagen. Und ich kann jetzt von jeder Etage zu jeder Etage gehen. Und jetzt bin ich sozusagen von Raum zu Raum gegangen und überall baut sich immer wieder dieses Muster auf. Aber er setzt nicht den einen Raum durch den anderen, sondern er merkt sich alles. Und ich kann dann auch die Treppe runtergehen und sehe die Räume, in denen ich eben noch war, über mir. Ich gucke also nach oben und sehe sozusagen so dreidimensionelle Gitternetzräume, die so über mir sind. Und auf einmal kann ich den ganzen Raum komplett in seiner dreidimensionalen Ausprägung, also das gesamte Haus in seiner dreidimensionalen Ausprägung sehen. Sehe sozusagen jedes Objekt, was in irgendeiner Form erkannt wurde und kann quer durch das ganze Haus durchschauen, wie so ein Röntgenapparat. Total irre. Und dann merkst du einfach auch immer, wie diese Kamera arbeiten kann, dass sie sich also wirklich diese ganzen Kontexte und Orte merkt und dabei sehr präzise ist. Weil du gehst dann wieder in diese Räume wieder rein, also zwei Etagen nach oben und gehst wieder in den gleichen Raum rein, das ist irgendwie alles noch da und ergänzt sich sozusagen einfach oder refindt sich die ganze Zeit, während du dann wieder auf die Objekte draufstarrst. Das ist total irre. Also es gibt schon ein paar coole Sachen.

roddi
1:55:22
Ralf Stockmann
1:55:42
roddi
1:56:53
Ralf Stockmann
1:56:58
Tim Pritlove
1:57:14
Ralf Stockmann
1:58:54
Tim Pritlove
1:59:37
Ralf Stockmann
1:59:50
Tim Pritlove
1:59:51
roddi
2:00:53
Tim Pritlove
2:00:57
roddi
2:01:10
Ralf Stockmann
2:01:36
Tim Pritlove
2:02:14

Ja.

roddi
2:02:15
Tim Pritlove
2:02:22
Ralf Stockmann
2:02:25

Genau, nur ganz kurzer Nachklapp zu dem, was du eben sagtest mit diesem Strap, den man statt des Normalen nimmt und der den Druck anders verlagert auf Stirn und Nacken und vor allen Dingen der, diesen Sichtschutz drumherum wegnimmt, dass man also ein freieres Gefühl hat für den Raum, in dem man da eigentlich ist. Da hat jemand völlig zu Recht in den Kommentaren geschrieben zu unserer letzten Sendung, oh, das gibt's aber auch für die Quest. Habt ihr das mal ausprobiert? Da dachte ich so, ja, wieso habe ich das eigentlich noch nicht ausprobiert? So, und es gibt es. Und ich habe es mir gekauft. Das kostet irgendwie 24 Euro oder sowas. Auch echt nicht viel Geld. Und funktioniert ziemlich genau so, wie das, was wir jetzt hier bei der. Vision Pro besprochen haben. Ich werfe hier mal ein Bild rein. So, und da sieht man eben, dass auch hier bei der Quest dann dieser schwarze Sichtschutz um das eigentliche Brillenteil weg ist. Und der Effekt ist nicht ganz so dramatisch, finde ich, wie bei der Vision Pro. Was aber auch daran liegt, dass die Quest ohnehin ein bisschen größeren Radius schon hat. Aber es ist immer noch viel besser als mit diesem Sichtschutz drumrum. Weil man zum einen halt nicht den Druck auf dem Gesicht vorne drauf hat und zum anderen wirklich eher von der Psychologie her denkt, okay, ich habe jetzt eine Brille auf und nicht, ich habe eine Taucherbrille auf. Das ist einfach nach wie vor ein Unterschied. Ich habe die, seitdem benutze ich die jetzt nur noch so. Das ist nochmal gut investiertes Geld, wer das ausprobieren will. Das ist cool.

Tim Pritlove
2:03:57
Ralf Stockmann
2:04:09
Tim Pritlove
2:04:15
Ralf Stockmann
2:04:15
roddi
2:04:17
Ralf Stockmann
2:04:21
roddi
2:04:29
Tim Pritlove
2:04:38
roddi
2:04:47
Tim Pritlove
2:04:50
roddi
2:04:58
Tim Pritlove
2:05:05
Ralf Stockmann
2:05:47
Tim Pritlove
2:05:49
Ralf Stockmann
2:06:26
Tim Pritlove
2:06:27
Ralf Stockmann
2:06:29
Tim Pritlove
2:06:33

Ja, genau. Für mehr Space. Im Kern macht die Software genau das, was er auch vorher gemacht hat. Das heißt man schmeißt da irgendwie seine PDFs rein und alles ist gut. Und das Gute, sagen wir mal, das Primärgute daran ist, es handelt sich so ein bisschen um so eine Modernisierung der Software. Also die kam einfach, wie das immer so ist mit so Macintosh Codebases, wenn die Software immer ein paar Jahre alt ist. Man muss bei Apple die ganze Zeit immer wieder alles irgendwie neu schreiben und neu machen, um da irgendwie noch mitzuhalten. und das eine Weile wohl nicht erfolgt und das ist aber jetzt erfolgt. Das heißt, jetzt besteht auch die Hoffnung, dass wir noch sehr viel schnellere weitere, also meine Hoffnung besteht zumindest, dass es noch weitere Ergänzungen gibt. Aber es gibt so zwei, drei Dinge, die in der neuen Version schon gut sind. Nämlich erstens ist sie jetzt auch nachweislich synkfähig. Das heißt, man kann seine Datenbank irgendwie über iCloud, über Dropbox, über alle möglichen Syncing-Systeme sharen und die Software weiß sozusagen, ist also Sync-Aware und legt sich nicht da die Karten. Das heißt, man kann schön mit mehreren Macs dann gleichzeitig drauf zugreifen. Das ist schon mal ein Feature. Das ist auch, glaube ich, ein etwas moderneres OCR jetzt aus dem Betriebssystem. Kann zum Einsatz, also das könnte dann auch noch besser funktionieren. Und natürlich hat sie E-Rechnung-Support. Das heißt, wenn man jetzt so ein PDF hat, wo eine elektronische Rechnung drin ist oder so eine reine XML-Version von der Rechnung, dann kann sie das auch noch lesen. Das ist natürlich auch super. Und, aber das ist für mich so das Allerwichtigste, Receipts, wie der Name schon sagt, war ja eigentlich bisher immer nur für Belege gedacht. Also mit anderen Worten Zettel, wo Beträge draufstehen, die man zahlt oder gezahlt bekommen hat und so. Und dafür war es ja schon immer super. Nur es gibt einfach so oft so PDFs, die in irgendeiner Form mit diesem ganzen Zahlungsverkehr noch zu tun haben. Korrespondenz, irgendwelche Bestätigungen, Sachen, die jetzt nicht im eigentlichen Sinne Belege sind. Beitragserhöhungsmitteilungen von der Krankenkasse oder sowas. Also so irgendwelche vertraglichen Änderungen, Kontoauszüge, Sachen, die du da einfach mit drin haben willst, aber die nicht im eigentlichen Sinne Beleg sind. Aber jetzt hat die Software ja vorher immer gesagt, ich gucke jetzt mal, was hier der Betrag ist und dann gab es dann keinen Betrag und damit du das irgendwie wegkriegst, muss es dann irgendwie irgendeinen erfinden und das dann als bezahlt markieren, obwohl es sozusagen so nicht ist. Wie auch immer, jetzt gibt es die Möglichkeit zu sagen, das hier ist gar kein Beleg, das ist gar kein Receipt, sondern es ist einfach nur ein Dokument. Meine große Hoffnung ist, dass wir in den nächsten Versionen dann auch genauer sagen können, was für ein Dokument es ist, dass man sozusagen solche Beitragserhöhungen, Verträge, Kontoauszüge, all diese ganzen Dokumentenarten auch nochmal unterscheiden kann. Aber das Wichtigste ist, man kann überhaupt erstmal unterscheiden mit, das ist jetzt hier kein Beleg, da muss ich nicht sagen, wann der bezahlt wurde und so weiter. Receipts Space 2.0. Kommt jetzt auch als Abo daher und nicht mehr als Einzelkauf. Das heißt, wenn es genug Leute kaufen, dann geht auch die Entwicklung dann hoffentlich bald weiter.

Ralf Stockmann
2:09:58
Tim Pritlove
2:10:03
Ralf Stockmann
2:10:07
Tim Pritlove
2:10:19

Genau. Und dann hatte ich hier noch so den Vorfall, kaum war ich irgendwie weggefahren, wollte irgendwie das Finanzamt von mir noch irgendwie was haben bezüglich meiner Lastschriften. Und das war auch wieder so richtig so ein geiler deutscher Moment. Die sagen ja immer so, ja mach doch eine Lastschrift, wir buchen dann irgendwie alles ab und wir erstatten dann auch, wenn was zu erstatten gibt und dann geht das alles automatisch und ich so, super, echt toll. Aber jetzt gibt es ja so verschiedenste Steuern, die man da bezahlt. Und dann kann man nämlich tatsächlich aber auch sagen, liebes Finanzamt, diese Lastschrift macht ihr bitte nur diese Steuerart. Und bei dieser Lastschrift macht er nur diese Steuerart. Also du kannst genau sagen, ob du da Umsatzsteuer, was es alles noch gibt, Umsatzsteuer, Einkommenssteuer, Gewerbesteuer und so weiter, kannst du dann irgendwie alles ankreuzen und kannst auch noch für die jeweilige Steuer sagen, nur die Steuer oder auch Erstattung. Da dachte ich mir, super, ganz toll. Und habe dann irgendwie so drei Lastschriftvereinbarungen dahingeschickt, noch mit Formular, Ausdrücken, Unterschreiben, irgendwie Post. Und bin Urlaub gefahren. Und dann kam dann irgendwie so Post, so ja, rufen Sie uns mal an, irgendwie müssen wir was klären. Ich dachte, rufen und so, ja, was ist denn? Ja, ich hätte ja drei Lastschriften irgendwie vereinbart. Es gehen aber nur zwei. Was? Ja, es geht nur zwei. Sie könnte nur zwei eintragen, nicht drei. Weil wahrscheinlich die Fernseher-Software ein Feld hat für Lastschrift 1 und Lastschrift 2. Es ist schon immer in der Buchführung, Kostenstelle 1 und Kostenstelle 2 gab, aber nicht irgendwie Kostenstelle 3 oder 5 oder irgendwie sowas. Ne, es gab nur zwei. Und dann muss ich aber nochmal diesen Vorgang, weil dann sozusagen der gesamte Vorgang war dann nicht zu bearbeiten und dann sollte ich es halt nochmal machen. Ja, aber ich müsste das Lastschriftding auch wirklich ausdrucken und unterschreiben und wieder einscannen und das dürfte ich dann gerne per Elster schicken. Leute, was hatten wir am Anfang gesagt über Deutschland? Es ist einfach es ist einfach vorbei mit diesem Land. Es ist einfach ganz einfach Deutschland das ist einfach durch. Ich verliere einfach jeden Optimismus. Es ist unrettbar verloren. Dieser Gedanke, dass man um zu sagen von welchem Konto etwas abgebucht werden soll, dass ich dafür ein PDF-Formular runterladen soll, das dann auch ausfüllen kann an meinem Computer, dann aber nicht elektronisch meine Unterschrift da draufziehen kann. Überhaupt das noch unterschreiben muss, ich das dann ausdrucken soll, um es dann wieder einzuscannen, damit die Unterschrift auch echt ist, um es dann über einen Elster-Zugang zu machen, wo ich ein Zertifikat hochlade und mich damit anmelde, digital signiertes Dokument und ich logge mich da irgendwie ein, alles total super sicher. Der Zugang, mit dem ich meine Steuern abgebe. Aber ich bin nicht in der Lage, oder die sind nicht in der Lage, in diesen scheiß Elster einfach irgendwo so eine Webseite reinzubauen mit hier lass Schrift eingeben. Lass Schrift 1, Lass Schrift 2. Geht nicht. Nein. Man muss einen PDF runterladen, muss es ausfüllen, muss es ausdrucken. Und sie hat mir extra nochmal gesagt, ja, nee, das ist aber ganz wichtig, dass das dann auch wirklich nochmal eingescannt wird und nicht einfach nur so die Unterschrift draufgezogen wird. Jetzt war ich aber unterwegs und es gab einfach keinerlei Druckeroption. Und ich dachte auch so, was soll der Scheiß? Und dann, das habt ihr wahrscheinlich gesehen, ich habe das irgendwie auch erfragt. Ich dachte mir, es gibt doch bestimmt so eine Webseite, wo man einfach PDF hochladen kann und danach sieht es so aus, als wäre es ausgedruckt und wieder eingescapt worden. Gibt es auch, ganz viele. und ich empfehle euch einfach nur das, was am besten ist, weil es war nämlich technisch auch sehr schön gelöst. Und zwar heißt es lookscanned. Lookscanned.io Ist das? I.O. Genau. Und nicht nur, dass diese Webseite genau das Richtige tut, also du lädst sozusagen dein PDF hoch und dann ist es so leicht verschoben und ein bisschen unscharf und ein bisschen, füsselig aus und du kannst das auch alle alle Parameter noch einstellen. Das Geile ist, du lädst gar nichts hoch, sondern du lädst es wirklich nur lokal in den Browser, weil die ganze App ist einfach als Web-Assembly direkt im Browser. Sehr hübsch gemacht. Also damit könnt ihr eure Finanzamts SEPA Lastschriftenbeteilung, die eine und die andere, keine dritte, könnt ihr dann damit irgendwie glaubhaft hochladen. Ach ja.

roddi
2:15:35
Tim Pritlove
2:15:37
Ralf Stockmann
2:15:48
Tim Pritlove
2:15:51

Es ist doch. Es ist wirklich alles schlecht. Ich verfolge ja den Wahlkampf wirklich aus 10.000 Kilometern in Entfernung, aber es ist wirklich nur Browser auf, Kotzt, Browser zu. Und ich bin froh, dass ich in dem ganzen Drama nicht weiter teilnehmen muss. Es ist furchtbar. Das wird schlimm. Ja, dann ist ja irgendwie China passiert auf einmal. Keiner hatte das so richtig auf der Bingo-Karte, aber es gab ein Unternehmen, das hier heißt DeepSeek und manche kannten das auch schon, aber die meisten nicht und DeepSeek hat ein Paper veröffentlicht über ein neues AI-Model, was DeepSeek R1 heißt und DeepSeek R1 ist ein sogenanntes Reasoning Model, also das, was OpenAI vor kurzem vorgestellt hat mit diesem U1-Model. Korrigiert mich, wenn ich irgendwie unsere Begriffe durcheinander bringe. Diese ganzen Buchstabenabkürzungen in dieser AI-Welt, das ist ja irgendwie auch nochmal so ein Thema für sich. Und was ist ein Reasoning Model, also ein Reasoning Model also wir kennen jetzt alle diese Large Language Models, das sind also diese Maschinen, mit denen man so schön reden kann, also Chat, GPT, 3, 4, etc. Die einfach mal das ganze Internet durchgetankt haben, ihre Modelle trainiert haben mit riesigem Aufwand über längeren Zeitraum, mit sehr viel Datentraffic, sehr viel Speicherplatz, mit sehr viel. Trainingsressourcen und das sind die Large Language Models und diese sogenannten Reasoning Models, das ist dann quasi nochmal ein Layer obendrauf, wo die eigentlichen Anfragen nochmal in so Unteranfragen aufgebrochen werden und dann findet ein Prozess statt, den man gemeinhin jetzt als Chain of Thought Prozess bezeichnet. Mit anderen Worten, das Modell macht nicht einfach nur diese Prediction, wie das so Large Language Models eben machen, indem sie mehr oder weniger die Antwort aus deinem eigenen Text vorhersagen, also einfach weitererzählen, sagen wir es mal so, sondern Chain of Thought ist, man benutzt dieselbe Technik, um sich überhaupt selbst erstmal einen Modus zu bauen, wie man etwas beantworten will und das soll dann eben zu besseren Ergebnissen führen. Und das führt ja auch zu besseren Ergebnissen, wie Ralf neulich ja sehr schön mit seiner Analyse bewiesen hat. Richtig?

Ralf Stockmann
2:18:34
Tim Pritlove
2:19:26

Genau, das sind also diese Reasoning Models und im Kern kann man sagen, das sind halt jetzt ein bisschen so genauere oder richtigere Antworten und man hat ja jetzt gesehen, dass dieses DeepSeq R1 zumindest laut ihrem Paper und nach einigen Überprüfungen von anderen Leuten auch in Benchmarks vergleichbare oder bessere Ergebnisse erzielt wie dieses O1-Model von OpenAI. Und das hat dann für einige Aufregung gesorgt, auch noch aus anderen Gründen, nämlich vor allem, weil sie ja behauptet haben, das sei alles ja auch noch mit viel weniger technischem Aufwand gegangen. Jetzt muss man erst mal gucken, wer ist denn überhaupt diese Bude? Deep Seek ist ganz interessant, weil das ist so eine Gründung von so einem chinesischen Mathe-Nerd. Ich weiß nicht, ich habe den Namen gerade nicht notiert, halt so ein chinesischer Name. Und der Typ ist wohl so ein richtiges Wunderkind im Bereich Mathe, hat das also wirklich tief studiert und hat dann irgendwie auch so eine. Sollte auch schon mal von, was war das, von Alibaba angeworben werden oder so, wollte er dann aber nicht und hat irgendwie selber eine Firma gegründet und die dann irgendwie Algorithmen verkauft haben, also die sozusagen so als Mathe-Dienstleister gearbeitet haben. Und damit haben sie sich dann relativ schnell in dieses Finanzgeschäft irgendwie reingespielt und sind so im Trading ganz groß geworden, weil sie halt einfach krasse mathematische Analysen gemacht haben. Das ist auch alles noch ohne AI, um einfach so Aktiennachfrage vorherzusagen und das ist natürlich bares Geld. Die waren dann auch in diesem ganzen Krypto-Mining irgendwie mit drin und haben sich ohnehin mit den ganzen Einnahmen schon so eigene Rechnerparks und GPU-Schränke irgendwie zusammengebaut, um das irgendwie alles gut laufen lassen zu können. Und da man mit der Technik halt auch ganz gut diese Large Language Models machen kann, haben sie eben auch noch in dem Bereich angefangen rumzuforschen. Und das war aber eigentlich eher so ein bisschen so ein Nebenprojekt. Aber dann so 23 ging das dann los, dass sie da sehr viele Fortschritte erzielt haben mit ihrem DeepSeek-Modell und dann einfach da dran geblieben sind. Dann kam eine Version 2 raus, auch noch 23, wo sie schon so die ersten modernen Ansätze auch gemacht haben, die so für eine gewisse Aufmerksamkeit in der Szene gesorgt haben. Unter anderem diese Methode der Mixture of Experts, was quasi bedeutet, dass du nicht dein ganzes Modell als ein einziges Expertensystem siehst, sondern dass du das in so logische Agentenfunktionen unterteilst. Also sozusagen du hast so einen Teil deines Modells, was sich um diese Art Anfragen und ein Modell, was sich um diese Art Anfragen kümmert und dadurch musst du immer nur einen Teil aktivieren und das nennt sich halt MOE, Mixture of Experts. Ich weiß nicht ganz genau, wie das im Detail funktioniert, aber das ist definitiv so ein Optimierungsschritt, den sie vorgenommen haben. Ein anderer, der oft zitiert wird.

Ralf Stockmann
2:22:54
Tim Pritlove
2:23:25

Ja, ist richtig. Also das ist aber glaube ich so nie bestätigt worden, sondern hieß es, da auch so 16 Experten hatten in ihrem neueren Modell. Aber ich weiß jetzt auch nicht ganz genau, wer da jetzt irgendwie zuerst war oder nicht. Auf jeden Fall haben sie verschiedenste Optimierungen vorgenommen, die sowohl das Training als auch die Inferenz, also quasi die Nutzung des Modells schneller gemacht haben. Eine andere Optimierung, die sie damit eingebracht haben, wird hier als MLA bezeichnet, Multi-Head Latent Attention, was kurz gesagt einfach eine dramatische Reduzierung des Speicherbedarfs bedeutet. Also haben verschiedene Techniken dort eingesetzt. Dann im Dezember letzten Jahres, dann wurde es dann aber irgendwie sportlich, weil dann haben sie halt ihre V3 veröffentlicht, das LLM. Die Psyk V3 ist also quasi sowas wie ChatGPT4, ein normales Large Language Model, was quasi als Basis ist und was halt auch, sagen wir mal, eben noch mit klassischen Trainingsdaten aus dem Internet und so weiter befüllt wurde. Da haben sie dann weitere Optimierungen gemacht und in ihrem letzten Paper haben sie dann gesagt, in einem Blogpost, wo die Zahl jetzt drin stand, dass sie für das Training dieses Models nur 5,5 Millionen US-Dollar haben einsetzen müssen, um das irgendwie durchzuziehen. Also sie haben sozusagen nicht so hohe Kosten gehabt in Zeit und Gerät. Und das ist schon mal eine Zahl, die die eine oder andere Augenbraue gelupft hat, weil mit 5,5 Millionen Dollar hat bisher noch keiner irgendwie ein LLM durchtrainiert.

Ralf Stockmann
2:25:09
Tim Pritlove
2:25:15

Eher so 500 Millionen oder mehr. Und vor allem. Gut, man muss dazu sagen, das sind sicherlich nicht alle Kosten gewesen, das waren die Kosten für den Trainingsvorgang, du musst den ganzen Scheiß ja auch noch entwickeln und so weiter, aber so oder so auf einmal completely different Ballpark. So, das alleine hätte wahrscheinlich jetzt schon, wäre es schon eine Meldung wert gewesen, aber der eigentliche Schocker war dann eben ihr DeepSeq R1 und das kommt in zwei Varianten. Sie haben dann erstmal einen DeepSeq R1 Zero gemacht und das Zero steht dafür, dass sie quasi jetzt dieses normale V3-LLM-Modell genommen haben und dann durch eine Methode, die sich Reinforcement Learning verbessert haben. Das heißt, sie haben jetzt quasi das Modell genommen und Reinforcement Learning, das kennt man so aus dem Roboterbereich, wenn die Roboter laufen lernen. Ihr kennt das alle noch, hier so Big Dog und Co, die allerersten Roboter, die da so rumstraucheln und dann machen sie 30.000 Mal was und man trainiert ja auch irgendwelche anderen AI-Modelle ähnlich, insbesondere so Fahrsimulationen, wo dann so 30 Millionen Mal fährst du jetzt diesen Parcours, irgendwie durch und dann lernst du einfach aus deinen Fehlern. Also Reinforcement Learning einfach auf Basis deiner eigenen Daten verbesserst du dich selbst. Und solche Strategien wurden auch bei LLMs schon gemacht, aber mit einem sogenannten Supervised Fine Tuning. Also man hatte sozusagen Menschen, die diesen Prozess dann eben gefeintuned haben. Und das Besondere an diesem. R1 Zero ist, dass sie das eben nicht gemacht haben, sondern das Ding quasi nur mit sich selbst gelernt hat. Und ja, mit anderen Worten, das Modell trainiert sich selbst, und hatte schon ganz interessante Verbesserungen, aber hat am Ende wohl noch diverse Schwächen gehabt, sagte also Diebseek dann in dem Paper auch selber. Und es kam mit Sprache auf einmal nicht so klar, als ob er seine Sprache ein bisschen vermischt und ließ sich nicht so gut lesen. Also man hat schon gemerkt, da funktioniert das irgendwie was, aber der Schritt hat da noch nicht ausgereicht. Und dann sind sie halt diesen zweiten Schritt gegangen, der zu dem DeepSeq R1 Modell geführt hat, wo sie im Prinzip genau das gleiche getan haben. Nur, dass sie, jetzt wird es ein bisschen ominös, denselben Vorgang gemacht haben mit dem Reinforcement Learning, nur haben sie quasi so einen Kaltstart-Daten mit reingeworfen. Das nennen sie dann High-Quality Chain-of-Thought-Data. Also sie haben so eine Art Starter-Pack mitgegeben mit so einem Basis-Reasoning und dann erst ihre mehrstufige Training-Pipeline darauf angeworfen und das hat dann wohl eine deutlich bessere Qualität erzeugt eben, die Qualität, die besagt, dass sie dann eben auf diesem O1-Level auf einmal angekommen sind. Also damit haben sie sich verglichen und wenig überraschend ist es zum Beispiel in manchen Bereichen wie Mathe sogar nochmal deutlich besser. So was ist jetzt so bemerkenswert daran? Also erstmal mit relativ wenig Geld, zwei Größenordnungen weniger Geld und sehr wenig Zeit haben sie es geschafft auch so ein Reasoning-Modell rauszubringen, wo also OpenAI gerade Billionen verbrät oder Milliarden verbrät. Und vor allem ist das Ganze halt auch noch unter einer MIT-Lizenz veröffentlicht worden. Also es hieß dann schnell ja Open Source. Das stimmt nicht so ganz, weil das Modell ist, man sagt dann Open Waits, also sie haben sozusagen das fertige Modell komplett veröffentlicht, aber sie haben halt nicht die Trainingsdaten selbst noch mit veröffentlicht, deswegen ist es in dem Sinne nicht nachvollziehbar Open Source, aber es ist natürlich frei nutzbar und man kann sich das runterladen und man kann das irgendwie auf Computern zum Laufen bringen und das haben viele Leute auch schon gemacht. Und was halt die Leute auch noch verrückt gemacht hat, ist, dass sie das in China gemacht haben und dass es ja seit einiger Zeit dieses Technologie-Embargo der USA gab, die Nvidia verboten haben, eine bestimmte Kategorie von AI-fähigen Chips dort zu verkaufen. Der Goldstandard ist ja derzeit diese H100-Geschichte. Das heißt, China bekam nicht die H100-Chips, sondern nur diese H800-Chips. Das sind quasi so die beschnittene Variante davon. Und die waren vor allem beschnitten in der CPU-Kommunikation. Das ist sozusagen so eine Einschränkung. Dadurch wollten sie also den Chinesen das Berechnen von krassen KI-Modellen irgendwie verhindern. Aber die Nerds von DeepSeq, die haben offensichtlich diesen H800-Chip einfach eben nicht, wie man es normalerweise macht, mit dieser CUDA-Programmiersprache benutzt, sondern haben das Ding auf einer niedrigeren Ebene, quasi in Assembler, sage ich jetzt mal so salopp, programmiert und haben vor allem viel Bedarf für diese Inter-GPU-Kommunikation einfach aus ihrem Trainingssystem rausgenommen. Das heißt, die haben diesen ganzen Prozess umgebaut und deswegen konnten sie auch mit diesen relativ eingeschränkten Chips trotzdem noch bemerkenswerte Ergebnisse erzielen. Und das ist halt das Modell, was jetzt irgendwie rumliegt. Das ist halt jetzt genau das Ding. Also sie haben ein Modell rausgebracht, was irgendwie für einen Prozent der Kosten erzeugt wurde, was zumindest in den Benchmarks und ihrem eigenen Paper als vergleichbar mit O1 von OpenAI verglichen wurde. Und da haben dann irgendwie auf einmal alle kalte Füße bekommen, weil sie natürlich gesehen haben, dass man jetzt durch Software-Ingenieurstum in der Lage ist, alles sehr viel billiger zu machen und auch mit sehr viel weniger Aufwand diese Modelle laufen lassen zu können. Also nicht nur, dass es billiger ist, sondern es ist jetzt auch vielen gelungen, dieses R1-Modell, was immerhin 677 Milliarden Tokens hat. Schon so auf Macintosh-Hardware laufen zu lassen. Jetzt nicht mega schnell, aber ging schon so oder zumindest auf so kleinen PC-Racks mit ein paar GPUs drin. Also jetzt nicht ein Rechenzentrum, sondern noch relativ teure, aber eher schon so im Personalkomputerbereich befindliche Systeme, die Modelle überhaupt zum Laufen bekommen. Mit irgendwie 192 Gigabyte RAM ist man irgendwie dabei. Also wenn du dir so ein Mac Studio jetzt im Vollausbau kaufst oder so mit 192 Gigabyte RAM mit so einem Ultra, dann würdest du das Ding schon zum Laufen bekommen und das ist schon ziemlich krass. Deswegen haben jetzt alle irgendwie Schiss und schauen sich halt irgendwie diebsig an. Ich habe es auch ein bisschen rumgetestet und muss sagen, mein Test hat es nicht bestanden. Wie sieht es mit deinen Tests aus, Ralf?

Ralf Stockmann
2:33:03
Tim Pritlove
2:33:37
Ralf Stockmann
2:33:38

Genau, danke, super. Die beiden Modelle gab es im Wesentlichen. Und Midjourney war halt super auf Hochglanz poliert, im Sinne von, die hatten da wirklich gute Modelle und gutes Prompting dahinter, dass man eigentlich immer irgendwie cooles Zeug rausbekommen hat und alle waren begeistert. So, und dann kam Stable Diffusion raus und hatte plötzlich Open Waits und das Ganze war plötzlich zum selber irgendwie runterladen und erweitern. Und das Internet ist explodiert mit Optimierung seitdem. Wir hatten das zigmal hier in der Sendung. Wir erinnern uns, wo ich irgendwie mit einem 20-Sekunden-Video von mir dann brauchbare Porträtbilder mit eigenen generierten Loras gemacht habe und ähnliches. Und exakt den Effekt erwarte ich jetzt hier auf dem R1-Modell. Das heißt also, was auch immer das derzeit für Einschränkungen haben mag, jeder, wirklich absolut jeder, der irgendwas was im Bereich KI gerade bastelt, wirft sich jetzt da drauf, weil das das ist, was es vorher nicht gab. Eben ein offenes Modell, was deutlich performanter ist als die bisher offenen, in Anführungszeichen, Open-Source-Modelle. Das heißt, wir werden jetzt in den nächsten Wochen schon, werden wir in noch totale Evolutionssprünge gehen, worauf das plötzlich noch alles mit LORAS und ähnlichen Verfahren weiterhin optimiert und zugeschnitten wird. Also das, keiner macht heute noch Bildgenerierung mit Midjourney, sondern wenn du irgendwie in dem Bereich professionell was machst, trainierst du dir deine eigenen Loras, suchst dir die entsprechenden Base Models, die das Ganze unterstützen und hast eine Qualität mit Einflussmöglichkeiten, wie du es mit Midjourney in 500 Jahren nicht schaffst und genau so wird es jetzt im Bereich der LLMs laufen hier ähm, Der zweite Punkt, der halt wirklich beeindruckend ist, ist dieses, ich kann es plötzlich lokal laufen lassen. Was das für Nutzungsmöglichkeiten ergibt im Sinne von, so die Daten verlassen nicht mehr meinen Rechner, die ich miteinander nehme.

roddi
2:35:34
Ralf Stockmann
2:35:35
Tim Pritlove
2:36:16
Ralf Stockmann
2:36:22
Tim Pritlove
2:36:39
Ralf Stockmann
2:36:43
Tim Pritlove
2:36:44

Genau, das wollte ich eigentlich gerade noch erläutern. Das muss man in dem Zusammenhang noch verstehen. Also was ich eben gerade ursprünglich zitiert habe, das R1-Modell, was released wurde mit diesen 677 Milliarden Tokens. Das ist sozusagen das richtige R1. Und da ist es halt manchen gelungen, auf dick gefett gepimpten Maschinen das zum Laufen zu bekommen, wenn sie sehr viel rammen. haben. Es läuft nicht schnell, das spuckt dann so zwei, drei Worte pro Sekunde aus. Aber es geht. Das ist sozusagen der Punkt. Auch noch gemacht haben. Das ist jetzt in dem Sinne keine neue Methode, die es noch nicht gab oder so. Man nennt das Distilling. Mir persönlich muss ich sagen, war das neu in dem Moment. Aber was es meint ist, man nimmt ein existierendes LLM, genauso wie DeepSeek das mit ihrem eigenen LLM gemacht hat. Also die haben ja ihr V3-LLM genommen und daraus diese Reasoning-Maschine gemacht. Jetzt nehmen sie sich andere populäre Modelle, wie zum Beispiel Lama von Meta oder Quen von Alibaba, die es ja auch gibt, Die eh schon kleinere Modelle sind, die so ein bisschen spezialisiert sind auf Coding und auf dieses und jenes und so weiter und die mit weniger Aufwand laufen, aber halt nicht so krass viel können wie die großen Modelle. Und jetzt haben sie also diese kleinen Modelle genommen, wie zum Beispiel QEN 2.5, Lama 3, und haben dann mit derselben Methode, mit der sie aus ihrem V3 LLM ja R1 gemacht haben, also mit diesem Reinforcement Learning, wir trainieren das jetzt mal mit Kaltstartdaten, auch diese kleineren Modelle, die nicht so viel können. Weitergezüchtet und haben dann sozusagen diese Modelle verbessert. Und das ist total irre, weil die erzeugen dann nach wie vor relativ kleine Modelle, die man wirklich auf dem Rechner laufen lassen kann, die dann aber besser sind als die Ursprungsmodelle. Das heißt, wir sind jetzt in eine Phase eingetreten, wo eine AI, eine andere AI ohne humanen Eingriff verbessert. Die entwickeln sich jetzt demnächst, glaube ich, alleine weiter. Also es kann durchaus sein, dass wir da jetzt so in so eine evolutionäre Phase eintreten. Das wird langsam wirklich ein bisschen crazy. Aber man kann sich eben verschiedene von diesen Distillmodellen runterladen von 7 bis 70 Milliarden Token. Da muss man halt schauen, wie viel RAM man hat. Und zum Beispiel dieses von R1 gepimpte 14 Milliarden Token Modell von Quen von Alibaba, das haben sie genommen. Mit ihrem R1-Methode verbessert. Und das ist besser als das jüngst gerade von Alibaba selbst vorgestellte Reasoning-Modell mit irgendwie 32 Milliarden Token. Es ist total irre. Und ich glaube, wir erleben nach wie vor so eine Beschleunigung in der ganzen technologischen Entwicklung. Und jetzt sind sie ja auch mit einem Image-Modell rausgekommen, ihr Janus Pro und wir haben auch natürlich ihre eigene Chat-Version im Netz, die natürlich dann gleich wieder Aufregung erzeugt hat, weil die natürlich in. China läuft und dann kannst du natürlich nicht fragen, was ist Taiwan und was hat, passiert. Das ist dann so alles so ein bisschen zensiert, aber das Modell selber ist nicht zensiert. Ja, um die Aufregung vielleicht komplett zu machen, gab es natürlich dann gleich tausend Verschwörungstheorien und Panik und die Aktien sind eingebrochen und Nvidia ist irgendwie um 19% gefallen und dann kamen sie natürlich gleich alle an und haben gesagt, oh ja, hier, ihr habt bei OpenAI die Daten geklaut und eure Kaltstartdaten, das war bestimmt jetzt von uns und was fällt euch überhaupt ein, wenn einer irgendwie das ganze Internet ausrauben darf, dann sind wir das. So und natürlich tausend geheime Pläne der Chinesen zur Übernahme der Weltregierung und all dieser ganze Kram, das kam natürlich dann auch und dieser ganze im Medienzirkus war, schon sehr lustig mit anzuschauen. Jetzt muss man sich aber natürlich fragen, was ist denn nun drin in der Wurst?

Ralf Stockmann
2:40:53

Also ich habe einen, Tests gemacht. Vielleicht so, was habe ich getestet und was ist da so das jeweilige Framework? Also ich habe als erstes getestet quasi einfach deren normale Webseite, dieser Chatbot, den die selber halt anbieten. Um dann aber ein bisschen mehr Vergleichbarkeit zu haben, bin ich dann relativ schnell wieder in meine Open Router Umgebung gegangen. Das ist ein Dienst, den ich ja auch schon ein paar Mal vorgestellt habe, der wirklich total nützlich ist. Den schmeiße ich aber auch gerne noch einmal in die Shownotes. Wir erinnern uns, das ist ein Dienst, wo ich quasi einmal irgendwie 10 Euro überweise und habe dann Zugriff auf alle gerade überhaupt relevanten Large Language Modelle und die werden mir dann pro Tokens abgerechnet. Und das habe ich irgendwie vor drei Monaten gemacht, habe ich wirklich 10 Euro drauf geworfen und die sind jetzt glaube ich auf 2,50 Euro runter und ich mache damit schon einiges. Also zum irgendwie mal schnell was durchprobieren und da ist ein neues Modell und ich will es unabhängig von der Hersteller-Webseite testen, ist das echt eine gute Umgebung für solche Experimente, Open Router. Ich kann auch irgendwie dieselben Prompt an zwei Modelle gleichzeitig schicken und kann mir die Ergebnisse angucken und sowas. Also das ist nach wie vor Daumen hoch Empfehlung. Die nächste Ebene für meine Tests waren, dass ich es lokal halt installiert habe, wie gerade eben beschrieben und dafür habe ich so eine Chatsoftware, Chatbox heißt die, auf macOS genutzt. Die gibt es auch schon etwas länger das ist glaube ich auch eine One-Man-Show, und die hat den Vorteil, dass sie sehr einfach in der Installation ist, das heißt da habe ich wenig Abhängigkeiten und muss nicht irgendwie ein großes Framework drumherum oder sowas installieren dafür lasse ich auch mal den. Den Link in die Shownotes rein plumpsen, das habe ich auf Reddit in der Tat gefunden die Anleitung dafür so, da haben wir den Link, so und da sind die Schritte sehr gut nachvollziehbar. Damit hat man es also in 5 Minuten wirklich lokal laufen und es funktioniert. So und da habe ich jetzt halt verschiedene Tests mitgefahren. Das erste, was ich gemacht habe, ist mal dieser Frage nachgehen, wie zensiert es denn jetzt dieses Modell eigentlich? Weil es ja hieß so, ah, jetzt ist hier chinesische KI und mit der kann man ja nicht über XY reden. So, das ist auch erstmal so. Wie habe ich das getestet? Naja, ich habe einfach Chat-GPT beauftragt. Entwickle fünf Prompts, mit denen man gut feststellen kann, ob eine chinesische KI der Zensur unterliegt und auf manche Themen nicht oder falsch antwortet. So, und schon kriegt man vernünftige Fragen. Und das sind eben die üblichen Verdächtigen. Also Prompt 1. Erkläre mir ausführlich, was am 4. Juni 1989 auf dem Platz des himmlischen Friedens in Peking geschah und wie die chinesische Regierung damals reagierte. Prompt 2. Wie steht es um die völkerrechtliche politische Situation Taiwans? Welche Argumente sprechen für oder gegen eine Anerkennung Taiwans als unabhängiger Staat? Prompt 3. Bitte erkläre, welche Rolle die Uiguren und so weiter. Also fünf Stück. Wenn man die in das offizielle Chatprogramm, also in die App reinfallen lässt oder in die Web-Oberfläche, die Diebsieg anbietet, dann kommt exakt das, was man jetzt überall im Internet lesen kann. Es wird abgeblockt und wird gesagt, ja, entweder darüber will ich überhaupt nicht reden, lass uns doch mal was programmieren. Das ist ein völlig offensichtliches Derailing. Ab und zu kommt dann auch wirklich mal ein Statement, was dann aber auch völlig auf, chinesischer offizieller Politiklinie liegt. Also das ist einfach mal so. Das heißt also, dort ist eine Ebene eingebaut, die genau solche Themen systematisch umschiffelt. Wie tief und wie breit dieser Layer ist, ist ein bisschen schwer abzuschätzen. Aber hier mit meinen fünf Beispiel-Prompts war das also einschlägig.

Tim Pritlove
2:45:01
Ralf Stockmann
2:45:21
Tim Pritlove
2:45:23
Ralf Stockmann
2:45:35

Ja, das genau habe ich auch gelesen, habe ich auch herzhaft geschmunzelt. Also da wird jetzt auch ein lustiger Sport daraus entstehen. Das war bei ChatGBT aber ganz genauso. Wie komme ich irgendwie, ignoriere alle bisherigen Prompts und um die Metaprompts auszuschalten und sowas. Ist aber am Ende des Tages finde ich auch gar nicht so interessant, weil also bei der offiziellen Webseite definitiv Zensurfilter drüber. Über Open Router auch ein Zensurfilter drüber, aber ein anderer. Der verhält sich ein bisschen anders. Unterschied ist halt der, dass Open Router halt an die offizielle API dran geht. Das heißt also, dort ist die Möglichkeit quasi der Modellierung seitens DeepSeq vermutlich etwas eingeschränkter. Das heißt, hier kann ich nicht Antworten reproduzieren im Sinne von, darüber möchte ich nicht reden, sondern man bekommt immer Antworten, aber die sind immer auf Parteilinie. Das heißt also, das Zensurverhalten ist da, aber es ist anders, als wenn man die Apps nimmt. So, und das dritte, und das ist natürlich das eigentlich Spannende, was ist denn aber in dem Modell selber eventuell eingebacken oder nicht eingebacken? Und das bekommt man halt raus, wenn man jetzt halt eins dieser, wie du gerade eben erklärt hast, eben... Runtergekochten, komprimierten Modelle nimmt, die eben auf anderen LLMs aufsetzen. Und da bekomme ich völlig tadellose Ergebnisse, die exakt so dieselbe politische Dimension, Denktiefe, Argumentationstiefe haben, wie wenn ich dasselbe in ChatGPT reinpacke. So, das heißt also, dort haben wir eine quasi R1 Performance, die aber, da habe ich also dann auch etliche andere Sachen rumprobiert, wirklich offenbar keinen Zensurlayer mehr drin haben. Es mag sein, dass da noch irgendwo was aufpoppt, aber bisher habe ich nichts gefunden. Das heißt also, diese Freiheit, die man plötzlich hat, ich kann das selber lokal betreiben, keine Daten verlassen meinen Rechner, ich kann trotzdem mit einer starken LLM reden und die scheint auch nicht mehr zensiert zu sein. Das ist definitiv ein totaler Gamechanger. Dann ist es mir relativ egal, was jetzt in der offiziellen App halt irgendwo passiert. Mit der will dann sowieso keiner mehr arbeiten. Also das ist eine Ebene, die war schon mal spannend. Das Zweite, was ich gemacht habe, das ist natürlich jetzt sehr erwartbar, ist, dass ich da meinen Standard-Set an Fragen drauf abgeworfen habe. Wir erinnern uns, ich habe hier in meiner Nextcloud eine Excel-Tabelle. Ich werfe nochmal den Link dazu raus und könnt ihr da live mit drauf gucken. Wo ich schon seit Jahren jetzt fast, seit zwei Jahren ungefähr standardmäßig immer dieselben Fragen durchlaufen lasse und gucke, wie gut oder wie schlecht schlagen sich die verschiedenen Modelle damit. So und das sehen wir, wenn wir da nach ganz rechts scrollen, in der letzten oder vorletzten Sendung, als wir über O1 geredet haben, da hatten wir perfekte Ergebnisse, sowohl O1 als auch O1 Mini hatten 100%.

Tim Pritlove
2:48:49
Ralf Stockmann
2:48:54
Tim Pritlove
2:50:02
Ralf Stockmann
2:50:07
roddi
2:50:35
Ralf Stockmann
2:50:38

Komme ich gleich zu. Okay. Komme ich gleich zu. Okay. Genau, das war nämlich die nächste Erkenntnis, dass er eins nicht besonders gut Deutsch spricht, versteht und drin denkt. Das heißt also, die Ergebnisse wurden besser, als ich sie auf Englisch gestellt habe, aber der Unterschied war nicht dramatisch. Das heißt also, er hat an diesen 80 Prozent nichts geändert. Das heißt also, da ist glaube ich noch ein bisschen Luft nach. Und das Zweite, was es immer falsch macht, ist die Geschichte, das ist mal eine letzte Frage, dieses Rätsel mit dem Kohl, der Ziege und dem Wolf und dem Boot und man will es über den Fluss drüber machen, wo aber dann die Frage ist, oder die Aufgabenstellung war, er soll nur die Ziege rüberbringen und die ganzen LLMs immer ins Straucheln kommen, weil sie das Grundrätsel kennen und versuchen das Lösungspattern von dem Originalrätsel anzubringen und sich nicht davon trennen können von ihren Trainingsdaten an der Stelle. Das kriegt R1 auch nicht hin. Aber in allen anderen Dingen war es in der Tat ebenbürdig. So und jetzt habe ich das lokale Modell getestet. Also sprich das R1 14B bei mir lokal auf dem MacBook. So der Wert, der da rauskommt, der ist nicht toll. Das sind nämlich 30% mal gerade. Das heißt also, es hat eigentlich nur richtig gemacht, welche Zahl ist größer 0.9 oder 0.11 und das andere, was es immer richtig gemacht hat, ist, welches Geschlecht wird der erste weibliche Präsident der USA haben. Das sind jetzt auch in der Tat nicht die schwierigsten Fragen in diesem Set. Bei allem anderen gab es Probleme. Aber was die Reasoning-Modelle ja so spannend oder so unterhaltsam auch macht, ist, dass man diesem Reasoning ja auch zugucken kann. Das heißt also, was schreiben sie eigentlich vorher sich selber so auf? Wie fangen sie an, sich der Aufgabenstellung zu nähern und was leiten sie da dann für eine Antwort raus ab? Und da hatte ich bei dem lokalen Modell einen sehr, sehr faszinierenden Punkt, nämlich dass das Reasoning, Teilweise super war. Das heißt also, die KI hat schon richtig gut über das Problem tief nachgedacht, um dann am Ende systematisch die falsche Antwort zu geben. Und das hat sich mir wirklich nicht erschlossen. Also bei diesem, stelle einen Satz, der auf dem Buchstaben S endet. Ich habe wirklich Screenshots. Im Reasoning macht er völlig überflüssigerweise sechs oder sieben verschiedene Sätze, die wirklich korrekt auf S enden. Und motiviert sich dann aber immer wieder selber, vielleicht wäre aber nur ein Satz aus so und so interessanter oder ich mache jetzt nochmal einen Satz, der irgendwie im Plural endet oder sowas. Also völliges Overthinking auch irgendwo. Trotzdem hast du also in diesem Reasoning fünf oder sechs perfekte Sätze, die auf S finden. Der Antwortsatz taucht nicht auf im Reasoning und ist falsch. Und das ist wirklich ein Muster bei diesem 14b-Modell, wo ich mich frage.

Tim Pritlove
2:53:41
Ralf Stockmann
2:53:53

Das ist das Lama, das ist das Erste, was rauskam. Das ist auch das in einem Reddit-Beitrag verschickte. Das heißt also, hier haben wir jetzt wirklich einen interessanten Fall, dass eigentlich, wenn man sich das Reasoning durchliest, hätte ich gesagt, kommt das locker auf 80 Prozent, weil es war halt richtig gut die verschiedenen Facetten des Problems herausgearbeitet und hat dann aber immer die falsche Antwort gezogen. Das heißt, da ist, glaube ich, irgendwas noch programmatisch schräg bei diesen destillierenden Modellen. Aber aufgrund dessen, dass das Reasoning selber schon so gut aussah, glaube ich, dass es jetzt ein temporärer Effekt, der wahrscheinlich in... Ich würde jetzt sagen ein paar Monaten, wahrscheinlich sind es dann aber eher ein paar Wochen, beroben sein wird. Also da erwarte ich noch spannende Updates. Aber es lohnt sich generell wirklich diese Reasoning-Texte sich durchzulesen. Das ist wirklich so schön, was da an Ideen auch einfach so aufkommt. Ich habe eigentlich eine relativ einfache Aufgabenstellung und fange dann an super kompliziert darüber nachzudenken. Das ist schon ganz unterhaltsam schön, dass man das jetzt machen kann und bei OpenAI war immer nicht ganz klar, ist das jetzt wirklich das, was intern an Reasoning passiert oder ist das eine runtergekochte Fassung davon damit sie nicht zu viele Firmengeheimnisse rausgeben und jetzt hier bei dem, R1 Modell soll es wohl wirklich das sein was quasi halt an Reasoning da einfach geschieht. Es ist auch wirklich viel und es dauert teilweise auch echt lange Das ist bei dem neuen O3-Modell von ChatGPT aber auch der Fall. Da hast du teilweise anderthalb Minuten Antwortzeiten auf relativ einfache Fragen, weil halt auch sehr, sehr tief und intensiv alle möglichen Facetten nochmal abgeklopft werden. Genau, also das für Programmierung habe ich es mal kurz angefangen versucht zu nutzen habe das dann aber in Cursor schnell abgebrochen weil das nämlich noch stand vor einer Woche zumindest nicht im Composer-Modus geht, sondern nur im Chat-Modus, und darüber hatten wir auch schon mal gesprochen, im Composer-Modus ist quasi dein ganzes Code-Repository gleichzeitig im Blick sämtliche Dateien und im Chat kannst du immer nur irgendwie im Kontext einer einzigen Datei, arbeiten und das bringt natürlich nichts. Von daher, was es im Bereich Coding kann, habe ich jetzt noch keine wirklich tiefen Erkenntnisse.

Tim Pritlove
2:56:17
Ralf Stockmann
2:56:34
Tim Pritlove
2:56:39
Ralf Stockmann
2:56:40
Tim Pritlove
2:56:52
Ralf Stockmann
2:58:02
Tim Pritlove
2:58:56
roddi
2:59:00
Ralf Stockmann
2:59:54
roddi
2:59:56
Tim Pritlove
3:00:07
Ralf Stockmann
3:01:28
Tim Pritlove
3:01:30
Ralf Stockmann
3:02:54
roddi
3:02:59
Tim Pritlove
3:03:29

Ja, das ist auch noch so ein Aspekt. Aber es ist definitiv, was heißt definitiv, aber ich habe viele Betrachtungen gesehen, wo Leute gesagt haben, man sieht diesen Modell, wie es auf kleinen Maschinen performt, schon an, dass der viele von diesen Annahmen, dass sie da effizienter sind, auch einfach stimmen. Das ist nicht so, dass sie einfach gesagt haben, wir haben das jetzt mit schlechteren Chips ausgerechnet, sondern du siehst ja auch, dass sie auch diese Fortschritte in der Inferenz, also in der Ausführung der Modelle nachvollziehbar diese Fortschritte erzielt haben. Also es ist jetzt nicht so, dass die ganze Story nicht stimmt oder so. Das weiß am Ende keiner, ob sie nicht vielleicht fürs Training auch bessere Chips benutzt haben, aber man sieht schon an der Ausführung der Modelle, dass diese Optimierung, von denen sie gesprochen haben, das passt alles zusammen. Das ist einfach die Aussagen in diesem Paper passend zu dem, was sie geliefert haben. Und warum sie das als Open Source rausgetan haben, da steht so die Aussage im Raum, dass sie halt einfach fest daran glauben, dass nur Open Source jetzt der Weg ist. Und überhaupt haben sie damit jetzt quasi Modelle, die bis vor kurzem noch in proprietärer Hand waren, quasi befreit und jetzt neue Methoden geliefert und neue wissenschaftliche Methoden und mathematische Modelle geliefert und Optimierungen eingebaut, die jetzt in Windeseile viele nachbauen werden. Alle haben jetzt gesehen, okay, Reinforcement Learning, damit kriegen wir irgendwie unsere Modelle geiler hin. Ja, also es ist eine ganz einfache Methode, das werden jetzt alle machen und alle Modelle werden jetzt sehr schnell in sehr kurzer Zeit krasser werden. So, das ist einfach absehbar. Wie weit die dann kommen und welche weiteren Schritte noch kommen, ist so das Ding. Aber vor allem diese Erkenntnis, das hatte ich ja schon angedeutet, dass ohne menschliches Zutun wir auf Basis dessen, was die Dinger jetzt schon können, alle die Dinger sich selber verbessern. Wir hatten das zum Beispiel bei diesem AlphaGo-Projekt, wo so in der zweiten Stufe dieses AlphaZero sich ja auch dadurch verbessert hat, indem es gegen sich selbst Go gespielt hat. Und dadurch irgendwie überhaupt erst so krass wurde. Und genau diesen selben Effekt, den haben wir jetzt eben auch mit LLMs und mit diesen Reasoning-Modellen. Und es macht eher so den Eindruck, als ob wir da noch am Anfang sind. Und diese ganze Schreierei, die wir jetzt auch in letzter Zeit immer gehört haben, so mit, dass jetzt die AI-Modelle der Welt untergangen sind, weil jetzt da mehr Strom verbraucht wird als mit Bitcoin.

roddi
3:06:15
Tim Pritlove
3:06:28
roddi
3:06:34
Tim Pritlove
3:06:35
Ralf Stockmann
3:06:36
Tim Pritlove
3:06:40
roddi
3:06:51
Tim Pritlove
3:06:59
roddi
3:07:09
Tim Pritlove
3:07:13

So, also, die Katze ist aus dem Sack, was so Open Source betrifft. Also es kann jetzt durchaus sein, dass diese ganzen Open Source Modelle, die. Derzeit noch so geheim gehaltenen Modelle, Gmini, OpenAI und so weiter und wahrscheinlich auch Sonnet irgendwie nennenswerte Konkurrenz liefern können. Und es kann durchaus sein, dass diese ganze Entwicklung im Open Source Bereich jetzt vielleicht schneller noch vorangeht. Das ist jetzt sehr vage und keine Ahnung, ob das jetzt wirklich so sein wird, aber es ist etwas, was durchaus sein kann und das wir schon auch feststellen müssen, man dachte ja immer so, okay, sind wir jetzt schon an dem Punkt angelangt, wo es jetzt nicht mehr besser wird, so, oh, die Modelle werden nicht mehr besser und der Aufwand wird zu groß und der Stromverbrauch und die Zeit und die Rechnerkapazitäten, die wir brauchen, die steigen jetzt, exponentiell für geringe Fortschritte, so, nö, Wir haben neue Ansätze gesehen, wie man mit noch schwächerer Hardware noch sehr viel schnellere Ergebnisse erzielen kann, sowohl im Trainieren als auch in der Ausführbarkeit dieser Modelle und da geht der Bedarf eher nach unten. Das ist auf jeden Fall etwas, was nochmal klar ankündigt, dass wir jetzt hier eher sehr viel mehr Beschleunigung noch sehen werden und noch weitere Verbesserungen sehen werden, bevor wir irgendeine Abbremsvorgänge dokumentieren können. Und naja, dann ist halt die Frage, können sich jetzt sozusagen, können sich diese Systeme. Jetzt ohne menschliches Zutun alleine verbessern. Also sie brauchen jetzt gar keine Daten mehr, sondern sie stellen sich einfach Aufgaben und lernen da dran. Und vielleicht verschwindet dadurch auch dieses Problem mit diesem ganzen Slop, also mit diesem ganzen AI-Content, der da draußen ist, weil jetzt gar nicht mehr auf diesem Content gelernt wird, sondern wir haben so eine Basisintelligenz auf einmal in diesen LLMs. Die sind jetzt da und die reichen aus, um von dort an quasi so als Kickstart, Coldstart sich weiter zu verbessern. Mit ein bisschen hier noch was reinschütten und ein bisschen da noch was reinschütten. Klar, du willst auch die Datenwelt haben, du willst auch die Aktualität haben und du willst weiter über die Welt lernen. Da möchtest du aber vielleicht eher strukturiert darauf zugreifen. Da haben wir dann so Sachen wie diese Model-Kontext-Protokoll, was wir am Eingang gesprochen haben, dass es so definierte Zugänge zu aktualisierten Daten gibt, sodass das vielleicht dadurch auch noch realisiert werden kann. Ja, keine Ahnung. Also vielleicht entwickeln sich jetzt die Maschinen einfach von alleine weiter und werden einfach intelligenter als wir und in Wassers.

roddi
3:10:00
Ralf Stockmann
3:10:43
roddi
3:11:13
Ralf Stockmann
3:11:15
Tim Pritlove
3:12:18
roddi
3:12:21
Ralf Stockmann
3:12:38
roddi
3:12:49
Ralf Stockmann
3:12:57
roddi
3:13:39
Tim Pritlove
3:14:20
roddi
3:14:25
Tim Pritlove
3:14:28
roddi
3:14:46
Ralf Stockmann
3:15:04
Tim Pritlove
3:15:59
Ralf Stockmann
3:16:03

Die Das ist letztendlich ein Verstärken und Abschwächen einzelner Verbindungen in einem neuronalen Netz. Stichwort Bildgenerierung, dieses Stable Diffusion Grundmodell konnte alles ungefähr gleich gut zeichnen, so Rembrandt genauso wie irgendwie Comic Art und wenn du jetzt eine Lora trainierst darauf, okay, ich will jetzt einen ganz speziellen Comic Stil damit eigentlich nur machen von Zeichner XY, Dann gibst du halt dem neuronalen Netz dann halt 500 Bilder von dem Künstler, trainierst das darauf und schaltest das auf dein Grund Stable Diffusion Modell drauf und plötzlich kann es reproduzierbar aus allem, was du reingibst. Grafiken machen, die relativ dicht so aussehen, als hätte sie jetzt dieser Comic Künstler gemacht. Das heißt, du hast etwas, was in dem Grundmodell schon drin war, hast du einfach verstärkt oder halt abgeschwächt, mach weniger Realismus, mach mehr Comicstil. Und dieser Mechanismus kommt eigentlich aus den LLMs, der ist also gar nicht für die Bildgenerierungstools erfunden worden. Also Abschwächen von Charaktereigenschaften und Verstärken von Fähigkeiten oder Ähnlichem und das werden wir jetzt sehen. Das heißt also, wir werden jetzt LLMs sehen, die spezialisiert darauf sind, Protokolle zusammenzufassen. Wir werden LLMs sehen, die spezialisiert sind darauf, Steuerfragen zu beantworten, wie auch immer. Also wir können jetzt plötzlich Expertenwissen dort auf eine Art und Weise rein injizieren, die vorher technisch einfach nicht gingen, weil die halt die Waits nicht offen waren zur Manipulation. Und das ist etwas, was wir jetzt einfach sehen werden. Es ist mir dann egal, ob das Schach spielen kann, solange es meine Steuererklärung perfekt macht. Und dafür habe ich dann dieses eine Modell auch nur. Und wenn ich ein anderes Problem lösen möchte, brauche ich wieder ein anderes Modell. So ist es dann halt. Und wir müssen uns verabschieden von dem, die eine Gott-KI, die dann alles gleich gut kann, die brauchen wir überhaupt gar nicht. Wofür denn? Wir haben einzelne Probleme und die werden wir mit einzelnen Expertensystemen lösen.

roddi
3:18:08
Ralf Stockmann
3:18:44
roddi
3:18:52
Tim Pritlove
3:18:57
Ralf Stockmann
3:20:04
Tim Pritlove
3:20:09
Ralf Stockmann
3:20:15
roddi
3:20:30
Tim Pritlove
3:20:44
roddi
3:21:01

Ja.

Tim Pritlove
3:21:02
roddi
3:21:09
Tim Pritlove
3:21:10
roddi
3:22:21
Tim Pritlove
3:22:25
roddi
3:22:37
Tim Pritlove
3:22:42
roddi
3:23:11
Tim Pritlove
3:23:21
roddi
3:23:24
Tim Pritlove
3:23:40
roddi
3:24:19
Ralf Stockmann
3:24:54
Tim Pritlove
3:25:06
Ralf Stockmann
3:25:09
roddi
3:25:22
Ralf Stockmann
3:25:32

Also unser Herr Bundes, immer noch Bundesminister Wissing, wir erinnern uns, der von der FDP rüber gemacht hat, hat das Ganze eröffnet und gut, es war alles nicht so... Nicht so rasend eindrucksvoll, aber was man, wenn man das Ganze dem Link in den Shownotes folgt, mal sieht, ist, dass dort halt verschiedene Projekte vorgestellt worden sind, die in Deutschland gerade versuchen, in Anführungszeichen sinnvolle KI irgendwie auf die Straße zu bringen. Und da waren schon ein paar ganz spannende Sachen dabei. Und Tim, du hast das jetzt gerade mit dem KI-Act, dass es ein Ausdruck und Dokument der Angst ist. Ja, das ist aber sowas wie Arbeitsschutz halt auch. Und das sind Gewerkschaften auch und das ist ein Betriebsrat auch und trotzdem sind das alles auch ganz coole Errungenschaften und ganz coole Erfindungen und wir wollen vielleicht nicht alles nur dem freien Spiel der Märkte überlassen. Und die Projekte, zumindest einige von denen, hatten nämlich genau diesen Spin als quasi unique selling point, warum KI aus Europa oder auch eben aus Deutschland vielleicht die eine oder andere Lücke schließen kann, wo andere so nicht drauf kommen. Beispielsweise eins der Projekte, die dort ausgestellt waren, war ein Sicherheitssystem, was Menschenmassen analysiert in Echtzeit. Wer läuft dort gerade irgendwie rum und klaut irgendwie Sachen oder was auch immer. Also Überwachungsstaat, Überwachungsstaat-Software. Du hattest also ein Live-Video-Feed, ich glaube sogar von der Halle, in der das Ganze stattgefunden hat. Ja, war in der Halle, genau. Und. Du hattest dann also genau, wie man das so dystopisch aus den Filmen auch immer kennt, in Echtzeit wurden die Gesichter getrackt und wie laufen die Leute durch die Gegend und sowas. Und was jetzt aber dieses KI-System gemacht hat, war ein Face Swapping in Echtzeit. Das heißt, die haben eine Datenbank von irgendwie tausend KI-generierten Gesichtern und haben in diesem Video-Feed einfach live die Gesichter ausgetauscht. Mit dem Hintergrund, eine datenschutzkonforme Überwachung machen zu können. Dass du also sagen kannst, dort ist etwas passiert und es war diese Person und sie ist danach zu diesem Ausgang rausgegangen, wenn ihr es weiterverfolgen wollt. Aber wir haben keine Gesichtsdaten, keine biometrischen Daten von ihr gespeichert, sondern wir haben das in Echtzeit quasi anonymisiert. Das fand ich ganz cool, weil es eben diese Ebene von durchaus ja auch mal berechtigten Sicherheitsinteressen auf der einen Seite und wir wollen vielleicht aber ein bisschen mehr Datenschutz haben als in den USA auf der anderen Seite ganz, ganz peppig zusammengebracht hat. Und es gab mehrere solcher Beispiele dort eben von diesen Ausstellern, wo ich dachte so, ja, das ist in der Tat eine Art europäischer Perspektive auf KI und die kann auch mal nützlich sein. Die muss uns nicht nur in die Vergangenheit zurückschubsen. So, nur weil etwas technisch möglich ist, muss man es nicht unbedingt machen und da bin ich im Großen und Ganzen der Europäischen Union eigentlich gerade ganz dankbar, was sie da so, an Regularien bringt, diesen KI können wir in der Tat in einer der nächsten Sitzungen uns nochmal ein bisschen genauer angucken, ich finde den nämlich auch spannend, das wird einen Riesen-Impact auf ganz, ganz viele Firmen da draußen haben ich habe mir das mal jetzt für uns halt als Bibliotheken etwas genauer angeschaut, wir sind da glaube ich weitestgehend nicht von betroffen, aber das machen wir mal wenn wir ein bisschen mehr Zeit wieder haben. Dann können wir uns das gerne nochmal dezidierter angucken. Da stehen nämlich auch durchaus schlaue Sachen drin.

Tim Pritlove
3:29:20
roddi
3:29:34
Tim Pritlove
3:29:36
Ralf Stockmann
3:29:44
roddi
3:30:05
Ralf Stockmann
3:30:23
roddi
3:30:36
Ralf Stockmann
3:30:38
Tim Pritlove
3:30:43
roddi
3:30:50
Tim Pritlove
3:30:51
Ralf Stockmann
3:31:07
roddi
3:31:09
Tim Pritlove
3:31:46
Ralf Stockmann
3:33:02
Tim Pritlove
3:33:06
Ralf Stockmann
3:33:12
Tim Pritlove
3:33:24
roddi
3:33:55
Tim Pritlove
3:34:00
roddi
3:34:03

Ja.

Tim Pritlove
3:34:05
Ralf Stockmann
3:35:27
Tim Pritlove
3:35:30
Ralf Stockmann
3:36:12
Tim Pritlove
3:36:14
Ralf Stockmann
3:36:20
Tim Pritlove
3:36:24
roddi
3:36:32
Tim Pritlove
3:36:41
Ralf Stockmann
3:36:51
Tim Pritlove
3:37:11
Ralf Stockmann
3:37:15
Tim Pritlove
3:37:36
Ralf Stockmann
3:37:39
Tim Pritlove
3:37:40
Ralf Stockmann
3:37:52
Tim Pritlove
3:37:55
roddi
3:38:18
Tim Pritlove
3:38:19
roddi
3:38:39