Freak Show
Menschen! Technik! Sensationen!
https://freakshow.fm


FS266 Mehr Bums

Douglas Adams — Machine Learning — OpenAI — Programmieren mit ChatGPT — XR-Produkt von Apple

Auch heute legen wir noch mal einen großen Schwerpunkt auf die AI-Bewegung und begrüßen dazu Oliver Zeigermann, der sich seit Jahren auf Machine Learning konzentriert. Wir blicken auf Entwicklungsgeschichte der AI-Technologien zurück und fabulieren über die Machbarkeit einer Open Source AI. Ralf stellt dann auch noch seinen Code vor, den er zu 100% hat von ChatGPT schreiben lassen und grübeln, wie lange es Programmierer noch braucht (Hint: noch lange). Dazu schwelgen wir in Erinnerungen an Douglas Adams und betrauern das mit ihm so früh verloren gegangene Visionspotential.

https://freakshow.fm/fs266-mehr-bums
Veröffentlicht am: 26. Mai 2023
Dauer: 3:46:51


Kapitel

  1. Intro 00:00:00.000
  2. Begrüßung 00:02:30.297
  3. Oliver Zeigermann 00:06:11.380
  4. Die AI Revolution 00:22:14.428
  5. DJ Cordhose 00:35:56.316
  6. Douglas Adams 00:37:55.515
  7. Die Dekade des Machine Learnings 00:52:46.517
  8. Large Language Models 01:21:21.863
  9. OpenAI 01:28:12.457
  10. LLM Hostinganforderungen 01:34:42.266
  11. ChatGPT Integrationen und Plugins 01:42:48.975
  12. Programmieren mit ChatGPT 02:04:01.207
  13. XR-Produkt von Apple 02:36:15.797
  14. macOS Ventura 03:29:17.790
  15. Ivory für Mac 03:31:33.969
  16. SkyBridge 03:32:22.188
  17. iPhone als Kamera 03:34:30.573
  18. Ausklang 03:39:39.281
  19. Bonus Track 03:42:48.965

Transkript

Tim Pritlove
0:02:30
roddi
0:03:04
Tim Pritlove
0:03:05
roddi
0:03:06
Tim Pritlove
0:03:18
Ralf Stockmann
0:03:28
Tim Pritlove
0:03:30
Ralf Stockmann
0:03:33
Tim Pritlove
0:03:38
Ralf Stockmann
0:03:46
Tim Pritlove
0:04:27
Ralf Stockmann
0:04:33
Tim Pritlove
0:04:58
Ralf Stockmann
0:05:20
Tim Pritlove
0:05:44
roddi
0:05:50
Oliver Zeigermann
0:06:05
Tim Pritlove
0:06:07
Oliver Zeigermann
0:06:17
Tim Pritlove
0:06:23
Oliver Zeigermann
0:06:27
Tim Pritlove
0:06:36
Oliver Zeigermann
0:06:37
Tim Pritlove
0:06:46
Oliver Zeigermann
0:06:52
Ralf Stockmann
0:07:12
Oliver Zeigermann
0:07:13
Tim Pritlove
0:07:14
Oliver Zeigermann
0:07:15
Tim Pritlove
0:07:21
roddi
0:07:22
Oliver Zeigermann
0:07:23
Tim Pritlove
0:07:34
Oliver Zeigermann
0:07:36
Tim Pritlove
0:08:39
Oliver Zeigermann
0:08:42
Tim Pritlove
0:08:48
Oliver Zeigermann
0:08:56
Tim Pritlove
0:08:57
Oliver Zeigermann
0:09:04
Tim Pritlove
0:09:06
Oliver Zeigermann
0:09:08
Tim Pritlove
0:09:10
Oliver Zeigermann
0:09:10
roddi
0:09:13
Oliver Zeigermann
0:09:35
roddi
0:09:38
Tim Pritlove
0:10:18
Oliver Zeigermann
0:10:41
Tim Pritlove
0:10:52
Oliver Zeigermann
0:11:05
Tim Pritlove
0:12:23
Oliver Zeigermann
0:12:33
Tim Pritlove
0:12:35
Oliver Zeigermann
0:12:41

Ich bin C64-Nerd gewesen, bin ich eigentlich immer noch. Also meine ganze Familie ist handwerklich begabt, also richtig, ich nicht. Und dann dachte ich immer, scheiße, was machen wir denn jetzt mit Olli? Was machen wir denn mit dem Mann? Der kann ja überhaupt nix. Was machen wir denn jetzt mit Olli? Und dann mein Bruder und mein Vater haben gesagt, kannst du mal ein Nagel reinhauen, dann wird er krumm und so und dann dachten die schon mal, irgendwas muss es doch geben, so und zack kommt Computer um die Ecke und plötzlich kann auch jemand wie ich, der hier irgendwie zwei dicke Hände hat, kann sich ausdrücken über so eine Maschine und letztlich ist das bisher die einzige, tatsächlich die einzige Technik gewesen, mit der ich mich ausdrücken kann und das ist so geblieben. Ich gucke gerade was da steht, aber es geht mich nichts an. Ich habe dann tatsächlich das auch studiert, also ich habe irgendwie als Teenager habe ich damit programmiert und dachte ja cool, jetzt kannst du auch was. Dann habe ich Informatik studiert, ne eigentlich habe ich, stimmt ja überhaupt nicht, ich habe Physik studiert, weil ich so dachte jetzt musst du größere Erkenntnisse kriegen, hab dann Philosophie studiert. Find ich immer noch total cool so wissenschaftstheorie und letztlich irgendwie so ein bisschen rumlabern und dann gab das mal so ein hast du auch philosophie studiert du guckst mich so böse an, dann gab das so ein, Ja, wie soll man das sagen? So ein Orientierungskurs von Leuten, die in dem Beruf arbeiten und dann dachte ich, das wird hier nix. Da gibt's keinen Beruf. Und dann habe ich Informatik tatsächlich studiert. Und äh...

Tim Pritlove
0:14:09
Oliver Zeigermann
0:14:11
Tim Pritlove
0:14:19
Oliver Zeigermann
0:14:26
Tim Pritlove
0:14:32
Oliver Zeigermann
0:14:33
Tim Pritlove
0:14:34
Oliver Zeigermann
0:14:35
Ralf Stockmann
0:14:38
Oliver Zeigermann
0:14:41
Tim Pritlove
0:14:53
Oliver Zeigermann
0:14:54
Tim Pritlove
0:14:55
Oliver Zeigermann
0:14:58
Tim Pritlove
0:15:14
Oliver Zeigermann
0:15:17

Ah ja okay, also kann man machen, vielleicht hat es jetzt auch weniger Relevanz, ich hab da ein bisschen drüber nachgedacht, also weiß nicht, auf jeden Fall, um das jetzt vielleicht nochmal irgendwie hier rund zu bringen, KI in der Zeit wo ich studiert habe, ich bin jetzt ein bisschen älter, es waren 90er Jahren, hat überhaupt nicht funktioniert oder überhaupt nicht so wie ich es gedacht habe, es war eine große Tragödie, es war ganz ganz schlimm, echt ganz übel. Und dann, weil noch keiner wusste wohin die Reise geht, es hat nicht funktioniert da war nicht genug Bums in der Kiste, so wie Siri heute, ja nee viel schlimmer, also was man jetzt irgendwie zwischendrin haben Leute irgendwie mal sowas in den Raum geworfen eigentlich braucht man oder was immer irgendwie ein Game Changer ist, ist mehr Bums in der Kiste, Also einfach mehr Dampf machen, einfach du machst das Modell größer, du hast mehr Daten, du hast fette Prozessoren, so ganz brutale, gewalttätige Sachen, die haben es am Ende gebracht und haben es auch tatsächlich am Ende gebracht, also so vor zehn Jahren würde ich sagen, jetzt vielleicht schon ein bisschen länger her, bin ich dann so aus meinem Winterschlaf wieder erwacht. Ich war da einfach Softwareentwickler und hab mich immer ein bisschen gelangweilt, geb ich zu, ist ein bisschen vielleicht snobbistisch, aber hab ich. Und dann ging das. Plötzlich begannen Dinge zu gehen und die gingen hauptsächlich deswegen, weil Grafikkarten, Die... Gamer im wesentlichen bezahlbar gemacht haben, plötzlich so viel Bums hatten, dass man Sachen machen konnte, die man vorher nicht machen konnte. Theoretische Überlegungen, die man schon früher gehabt hat, nämlich wie man ein vernünftiges, normales Netz baut, die konnte man nicht umsetzen früher, weil es eben nicht genug Bums gab. Dann gab es genug Bums und im Wesentlichen hat das den Durchbruch gebracht. Wie so oft, man gibt einfach ein bisschen mehr Gas und plötzlich klappt das nicht.

Tim Pritlove
0:17:03
Oliver Zeigermann
0:17:06
Tim Pritlove
0:17:47
Oliver Zeigermann
0:17:57
Tim Pritlove
0:18:10
Oliver Zeigermann
0:18:11
Tim Pritlove
0:19:05
Oliver Zeigermann
0:19:06
Tim Pritlove
0:19:08

Nichtsdestotrotz, also beim Manning ist das ja erschienen. Das ist ja so einer dieser Spezialverlage für Programmierer, die ich eigentlich ganz gerne mag. Also da sind einige Bücher, die ich zuletzt gelesen habe erschienen und die machen halt auch schon ganz modernes Zeug. Also mit diesen Livebooks zum Beispiel, also ich lese gerade ein Buch, das in seiner, das bisher zweimal überarbeitet worden ist und jetzt gerade in seiner dritten Überarbeitung ist und das wird quasi während die Kapitel jetzt fertig geschrieben werden schon, ist es schon nachlesbar. Das heißt ich lese es jetzt sozusagen in der noch nicht wirklich erschienen Version Kapitel für Kapitel wie sie rauskommen nach und man kann das halt wunderbar im Browser lesen, der merkt sich immer wo man irgendwie war und funktioniert irgendwie alles schon erstaunlich. Dieses Web, langsam wird's zu was gut. Ja, naja gut, also super. Genau und wegen diesem ganzen, also wir haben ja zusammen schon mal einen Podcast gemacht, kann man ja auch mal drauf verweisen und zwar in meiner kurzen Serie, die ich mal zusammen mit O'Reilly gemacht habe. Der Kolophon Podcast, das kennen vielleicht manche von euch gar nicht, ist auf jeden Fall auch in den Shownotes und da haben wir uns auch über Machine Learning unterhalten und das war schon so ein bisschen bevor das alles so richtig losging. Also es zeichnete sich ab, dass es jetzt interessant wird, weil halt diese ersten Durchbrüche im Bereich Deep Learning stattgefunden haben und ich hatte auch vorher schon mal einen anderen Podcast gemacht, der war dann aber auch wirklich sehr zeitig, muss ich nochmal gucken wann der eigentlich war. 2015 hab ich den gemacht, genau, Oktober 2015, ein CAE und das war so gerade als es so losging, so als auf einmal alle Katzen erkannt werden konnten auf Youtube und so, mit Katzen geht's ja los, ne.

Oliver Zeigermann
0:21:25
Ralf Stockmann
0:21:30
Tim Pritlove
0:21:59
Ralf Stockmann
0:22:00
Oliver Zeigermann
0:22:14

Ja das Erstaunliche daran ist aber eigentlich, also wenn ich hier zu viel darüber laber könnte ich es ja sagen, aber das Erstaunliche daran ist, dass für mich diese Durchbrüche, die es jetzt ja absolut und unbestreitbar gibt, dass das für mich eher ein Problem in meinem Job ist, also klingt ja eher überraschend, aber das liegt daran, dass dieses Chat-GPT-Zeug, habt ihr ja letztes Mal auch schon relativ viel drüber gesprochen, da haben jetzt alle das Gefühl, ah das ist ja im Wesentlichen gelöst, das kann das jetzt, das können wir jetzt alle benutzen, das klappt und so. Und das ist aber praktisch letztlich nicht einsetzbar für die für sehr viele Fälle und das bedeutet, wenn jetzt Leute sagen, was können wir denn mit Maschinenlernen machen, dann ist das aber der Maßstab, den die Leute so spüren, die denken, ja wieso, das geht doch alles, das haben wir doch gesehen, das habe ich doch selbst ausprobiert, ich habe doch einen Account. Und dass es dann aber solche Sachen gibt wie, ja, aber das passiert in den USA in irgendwelchen Containern, da musst du deine Daten drüber schicken, die wollen für jeden Request so und so viel Geld haben, wenn du das nachtrainieren willst, ist es super schwer und so, also das ist nicht bedeutet, dass nur weil die das können und das in den USA in irgendeinem Ding rumsteht, bedeutet das nicht, dass es für jeden zugreifbar ist und das ist gerade so die Herausforderung, die ich wahrnehme. Also ihr habt letztes mal glaube ich auch schon darüber gesprochen über so eine Open Source Version, die wir uns alle wünschen, die aber überhaupt nicht nicht sichtbar ist. Ich sehe keine. Und ohne diese Open Source Version, die man vielleicht am besten Fall auch noch auf dem Rechner laufen lassen kann, der nicht irgendwie 100.000. Euro kostet und wo man nicht irgendwie zehn Experten braucht, um das hinzukriegen. Solange das nicht da ist, fühlt man diesen Durchbruch und alle fordern diesen Durchbruch von jemanden ein, aber der ist praktisch im Moment noch nicht umsetzbar. Zumindest nicht in der Art und Weise, wie wir uns das alle wünschen oder wie die Leute, die davon hören, glauben, dass es möglich sein wird. Und das ist im Moment das Problem, weil es, man kann fast sagen, weil es so die Preise verdirbt. Also jetzt nicht den Preis im eigentlichen Sinne, sondern sowas wie, dass die Erwartungshaltung sehr hoch ist und man kann nicht liefern oder nur sehr begrenzt oder nur in speziellen Fällen. Das ist im Moment das, so wie ich es spüre. Also ich glaube wir merken alle, das geht richtig ab, wenn man jetzt irgendwie nur irgendwelche Nachrichten aufmacht, da ist ja immer irgendwas, irgendjemand hat irgendwas gefunden oder irgendwas ist besorgt oder.

Tim Pritlove
0:24:28
Oliver Zeigermann
0:24:49
Tim Pritlove
0:24:51

Ja, aber ist ja so. Wie lange gibt's das jetzt, seit zwölf Jahren prophezeien sie uns, dass es irgendwie alles revolutioniert, was hat es bisher revolutioniert, es ist halt einfach gar nichts revolutioniert. Es ist einfach eine scheiß langsame Datenstruktur, die zu nix taugt. Das kriegen die Leute halt einfach nicht rein in ihre Körper und das Ding ist einfach mal durch. Eine interessante Technologie entdeckst du dadurch, dass du sehr schnell in sehr viele Richtungen einen konkreten Nutzen entdeckst, der vielleicht erstmal nur Potenzial hat. Ich war jetzt zum Beispiel vor ein paar Tagen hier auf einer Konferenz. Der, dem Amaze Festival, ich weiß nicht ob ihr das schon mal von gehört habt, das ist so eine kleine Gamer Indie Konferenz, so leicht künstlerisch auch angehaucht und so weiter, da laufen halt jetzt nicht so die großen Development Studios rum und machen dicken Mucks, sondern das sind sozusagen die kleinen. Und ich hab ja persönlich, das werd ich ja auch nicht müde zu betonen, so mit Gaming so überhaupt gar keinen Kontakt. Also nicht, dass ich nicht schon mal ein Computerspiel gespielt habe, aber das geht einfach so in mich nicht rein. Trotzdem find ich halt solche Szenen interessant. Ich wollt mir mal diesen Event anschauen, ich kenn ja auch ein paar Leute da. Einmal hab ich gesprochen und er meinte so, ja es wäre, kam natürlich zwangsläufig auf das ganze AI Thema, ne, und meinte ja, er hätte hier auch den ganzen Tag rumgelaufen, hätte mit allen gesprochen und nicht einer wäre dabei gewesen, der nicht schon berichtet hätte, wie sie TGPT, Large Language Models, in irgendeiner Form bei ihrem Game Design zum Einsatz bringen, sei es beim Coding, sei es beim Story Development, sei es in der künstlerischen Gestaltung, kann ich jetzt gar nicht so viel zu sagen, wo es überall konkret kam, aber es war einfach sozusagen nicht ein paar oder manche oder so, sondern alle sofort und jeder macht sich sozusagen auf die Suche, was man damit machen kann Jeder von uns persönlich hat schon irgendwie die eine oder andere Anwendung gefunden und das ganze Zeug ist halt jetzt gerade mal ein paar Monate raus. Das ist für mich so der Marker für Has Impact.

Oliver Zeigermann
0:27:07

Absolut, also ich hab auch keinen Zweifel daran, dass es wirklich einen riesigen Impact gibt. Ist nur so, dass die Leute den jetzt einfordern und ich nicht liefern kann. Das ist vielleicht eher so das Gefühl. Und das ist vielleicht so wie diese Hype Cycle, man ist jetzt total aufgeregt und... Ist es dann aber irgendwann nicht mehr, weil du denkst, das geht ja alles gar nicht, aber das sehe ich überhaupt nicht. Ich sehe das so wie das Internet tatsächlich. Vielleicht bin ich ein Spinner, kann sein, aber ich sehe quasi das fast schon so wie die Fortführung von dem Internet. Ich hab hier meine Kollegen mit ein paar Folien genervt, es gibt diesen Marshall McLuhan, den ihr vielleicht kennt, vielleicht nicht, der hat so gesagt, irgendwie das erste, was die Menschheit hier irgendwie richtig vorangebracht hat, war überhaupt sowas wie, was war das nochmal, Sprache haben glaube ich, Buchdruck. Das heißt man hat irgendwie sowas wie, man hat jetzt, kann sich nicht nur irgendwie, kann nicht nur was aufschreiben und so, sondern man kann das jetzt auch noch vervielfältigen und dann kommt das Internet, das heißt man kann richtig unheimlich viel austauschen, das heißt du kannst weltweit austauschen mit fast keiner Verzögerung, dich unterhalten. Und was ich da jetzt drauf gesetzt habe, ein bisschen vermessen, überhaupt dem irgendwas hinzufügen zu wollen, ist, dass ich das Gefühl habe, dass jetzt sowas wie große Sprachmodelle die Komprimierung oder die Abstraktion oder das Destillat aus dem Internet ist. Das heißt, man ist jetzt in der Lage, das ist jetzt alles da und jetzt fasst du da so zusammen, nicht, dass du das Wissen irgendwie besser hast oder komprimiert, sondern die Fähigkeit, die da irgendwie drinsteckt. Das klingt jetzt ein bisschen so, als wäre ich vielleicht nicht ganz dicht oder so, so als würde das irgendwie total gesponnen sein, aber man sieht da, dass es irgendwie funktioniert. Das heißt, man hat alles genommen, was man so zusammengesammelt hat, wie die Menschheit, ins Internet gestopft, dann nennst du dieses Internet und destillierst es oder komprimierst es irgendwie zu irgendwas, was dann offensichtlich in der Lage ist, was zu tun, was Leute beeindruckt. Und für mich ist es wirklich dieser nächste Schritt, das muss jetzt nicht Chat-GBT sein oder so, aber überhaupt diese, also die Idee gibt es ja schon lange, aber dass es funktioniert und... Guck mal, als hätte ich das mir vorher überlegt, habe ich aber nicht. Es ging diesmal wieder auch nur, weil man mehr Bums unterm Kessel hat, das heißt man hat gesagt, machen wir einfach ein bisschen größer, macht mal ein bisschen größer, dann wird schon gehen und dann ging das plötzlich. Also es gab wirklich so einen Punkt und auch wenn man wieder zurück will und sagt, wenn wir es ein bisschen kleiner machen oder ein bisschen weniger komplex, dann verliert man das auch wieder, dass dieses Ding wirklich so schlau ist, dass es quasi die Fähigkeiten aus dem Internet dann wieder verliert oder einfach nicht mehr so eindrucksvoll ist.

roddi
0:29:39
Oliver Zeigermann
0:29:47
roddi
0:30:24
Oliver Zeigermann
0:30:35
roddi
0:30:52
Oliver Zeigermann
0:31:04
roddi
0:31:22
Oliver Zeigermann
0:31:26
roddi
0:31:28
Oliver Zeigermann
0:31:31
Ralf Stockmann
0:31:38
Oliver Zeigermann
0:31:46
Ralf Stockmann
0:31:50
Oliver Zeigermann
0:32:17
Ralf Stockmann
0:33:27
Oliver Zeigermann
0:33:35
Ralf Stockmann
0:33:36
Tim Pritlove
0:34:15
Ralf Stockmann
0:34:22

Ja genau da würde ich natürlich keinesfalls empfehlen das in so einem Modell einzustehen. Niemals würde ich das tun. Ich sehe gar nicht so die große Lücke. Das Training ist ein Problem aber da würde ich mal sagen, lass uns kurz den Punkt zu Ende machen. Beim Training würde ich sagen... Hoffe dass wir hier eine ähnliche entwicklung sehen wie bei open street map, wo du also auch lange jahre eine große kluft hattest zwischen google maps und dem was eben open street gemacht hat und google ist dann aber eben mit autos herumgefahren und hat street view gemacht und das fanden dann nur die deutschen aber immerhin die deutschen dann gar nicht mehr so knorkel und plötzlich haben sich alle mit ihren gps devices im rucksack irgendwie auf die norddeutschen Inseln gemacht, um die auch noch irgendwie durch zu kartografieren. Und irgendwann gab es so ein Tipping Point, wo du gesehen hast, okay mittlerweile gibt es sogar ein ganz gutes Design für OpenStreetMap und die API ist eigentlich ganz prima und ich kann das genauso gut in meine Webseiten einbauen wie vorher meine Google Maps. Jetzt ist das zumindest für uns im öffentlichen Dienst völlig selbstverständlich, dass wir nur OpenStreetMap reinsetzen. Und es ist immer noch in Details vielleicht schlechter, in anderen Bereichen ist es aber mittlerweile mindestens genauso gut oder in endlichen Bereichen noch besser als Google Maps. Und ja dieses Race hat ein bisschen gedauert und gerade irgendwie der Wissenschaftssektor hätte da viel mehr Geld reinstopfen können. Ja wo waren denn die ganzen GeoinformatikerInnen zu dem Zeitpunkt eigentlich? Ja da hätte man also sicherlich irgendwie DFG hätte ja sonst was aufsetzen können oder BMWF oder sowas. Und ich sehe nicht warum das jetzt nicht der Fall sein könnte, weil ich glaube die Daten haben wir so und für Training muss man sich dann vielleicht mal was einfallen lassen.

Tim Pritlove
0:35:56
Oliver Zeigermann
0:36:35
Tim Pritlove
0:36:41
Oliver Zeigermann
0:36:43
Tim Pritlove
0:36:43
Oliver Zeigermann
0:37:06
Tim Pritlove
0:37:19
Oliver Zeigermann
0:37:20
Tim Pritlove
0:37:55
Oliver Zeigermann
0:38:01
Ralf Stockmann
0:38:05
Oliver Zeigermann
0:38:09
Tim Pritlove
0:38:11
roddi
0:38:18
Tim Pritlove
0:38:19
roddi
0:38:21
Tim Pritlove
0:38:21
Oliver Zeigermann
0:38:23
Tim Pritlove
0:38:28

Naja ich hab ja eingangs unser aller Freund Douglas Adams eingespielt und ich hab mich ganz bewusst nicht beim Anhalter vergriffen, das wäre ein bisschen zu naheliegend gewesen. Aber wenn man so älter wird, merkt man, es gibt dann immer mehr Leute, die kennen Douglas Adams nicht. Ich glaube das dürfte in unserer Hörerschaft eine sehr überschaubare Minderheit sein, aber ich denke, dass es schon nochmal ganz wertvoll ist, das vielleicht auch nochmal kurz aufzugreifen, weil heute ist ja Towel Day und ich bin nicht einverstanden mit dem Datum. Also das ist ja so eine Hauruck-Aktion gewesen, weil so ein paar Leute der Meinung waren, jetzt müssen wir sofort, sofort nachdem er gestorben ist, ihm gedenken, ja da bin ich auch schwer dafür, aber dann haben sie sozusagen den erstbesten beliebigen Tag genommen, der gerade irgendwie auf dem Kalender erschien, Der so überhaupt nichts mit Douglas Adams oder seinem Werk oder irgendwas zu tun hat, nicht der 42. Tag, nicht seinen Geburtstag, nicht seinen Todestag, gar nichts desgleichen, was ich ehrlich gesagt nicht gut fand. Deswegen hatte ich so mit dem Towel Day immer so ein bisschen meine Probleme, zumal ich ja auch eher finde, dass es ein, also ich weiß nicht, das mit dem Handtuch ist schon irgendwie ganz lustig, aber für mich auch jetzt nicht unbedingt so das definierende Element. Und ich hatte tatsächlich mal die Gelegenheit ihn zwar nicht persönlich kennenzulernen, aber ich war zumindest mal bei einem seiner Live-Lesungen und zwar genau bei so einer wo er aus diesem Buch vorgelesen hat, was wir jetzt hier am Anfang hatten, nämlich Last Chance to See. Kennt ihr das eigentlich?

roddi
0:40:20
Tim Pritlove
0:40:21
roddi
0:41:28
Tim Pritlove
0:41:30
roddi
0:41:32
Tim Pritlove
0:41:34
Ralf Stockmann
0:41:38
Oliver Zeigermann
0:41:39
Tim Pritlove
0:41:40

Also The Meaning of Life ist so ein kleines Minibuch, das ist nicht groß, und man kauft das so und da ist so ein Aufkleber drauf, steht drauf, this book will change your life und es handelt sich dabei um so eine Art Nachschlagewerk, in dem Worte erklärt sind von Dingen und Vorgängen, die wir alle kennen, für die es aber keinen Namen gibt. Und der Wortschatz aus dem sie sich bedienen oder der Namensraum aus dem sie sich bedienen, um diesen Dingen die keinen Namen haben einen Namen zu geben, damit man sie in einem solchen Verzeichnis auch ordentlich alphabetisch aufführen kann, sind kleine englische Ortschaften. Also sie haben sich sozusagen irgendwo aus Großbritannien, Nordirland und so weiter, halt so British Islands, irgendwelche Orte herausgenommen, die irgendwie merkwürdig klingende Namen haben, die dann aber dann doch irgendwie passen, um so Dinge zu beschreiben wie eine Gruppe von Autos, die auf der Autobahn alle mit einer konstanten Geschwindigkeit unterwegs sind, weil eins von ihnen ein Polizeiauto ist. So eine Sache zum Beispiel. Oder das Wort to thrub, es gibt da so einen kleinen Ort der heißt thrub. Und to thrub ist das Verb, das ist der Vorgang, in dem man ein Lineal nimmt, es so halb auf die Tischkante legt und die andere Seite anschlägt, which makes the other end go brr brr brr brr brr brr. Heißt es dort im Buch. Und es ist ein einziges Vergnügen, sich durch diese Dinge durchzulesen und einfach die ganze Zeit Sachen zu finden, die man kennt. Und irgendwann, nachdem du dann so mehrere Seiten gelesen hast, denkst du dir dann so, aber was in aller Welt heißt eigentlich LIV? Weil das Buch heißt nicht The Meaning of Life, sondern The Meaning of LIV. L E F F, Was ist es? Live a book, a book which contents are totally belied by its cover. Especially if there is a sticker on it that says this book will change your life. Und da hat er mich dann final, das hat er auch nicht alleine geschrieben, sondern mit jemand anderem, dessen Namen ich jetzt gerade nicht erinnere.

Oliver Zeigermann
0:43:59
Tim Pritlove
0:44:00

Genau, John Lloyd. Also ich liebe diesen Humor und ich mochte ihn von Anfang an und es ist so schade, dass Douglas Adams so früh gestorben ist. Er war der erste Apple User Englands. Er war der allererste, der irgendwie einen Macintosh hatte und der hat schon in den 90ern sich schon darüber echauffiert, warum Hotels kein Internet und keine Internetbuchsen haben. Das finde ich so faszinierend, der Typ hat einfach auch total in der Zukunft gelebt, ich meine er hat die Zukunft ja auch beschrieben, er hat mit dem Anhalter quasi die Wikipedia beschrieben bis ins Detail. Und auch all die anderen Selbstverständlichkeiten in diesem Buch werden in zunehmendem Maße auch Selbstverständlichkeit bis hin, jetzt kommen wir auch mal wieder zu unserem Thema zurück, bis hin zu dieser Selbstverständlichkeit wie man mit so Maschinen redet und was sie alles so für Auskünfte geben können. Der Gipfel natürlich Marvin, der manisch-depressive Roboter, der eigentlich alles auch weiß über das Universum und alle Antworten geben könnte, einschließlich der Antwort auf die Frage nach dem Leben des ganzen Universums und dem ganzen Rest, wofür sie riesige Computer bauen. Marvin hätte die Antwort, aber sie fragen ihn halt einfach nicht. Stattdessen bitten sie ihn, Schleuse Nummer 3 zu öffnen. Ja, das sind Dinge, die man zu mir sagt. I can't do that Dave. Und diese ganze Dummheit der Menschen ist einfach so wunderbar encapsulatet in dieser Story, dieser ganze Wahnsinn der Welt, der sich auf diesen Seiten so wunderbar abspielt und insbesondere wenn es halt so um Maschinen geht und dieses Wesen von Maschinen, Marvin ist ja quasi auch der Katalysator zu diesem Wahnsinn. Also auf der einen Seite diesen übermäßigen Fähigkeiten aber auch so dieser programmierten Dummheit, da unterhält er sich irgendwie mit diesem Raumschiff und stellt ihm sozusagen seine Ansichten über die Welt dar, woraufhin das Raumschiff Selbstmord begeht, zufälligerweise die anderen Protagonisten im Buch in dem Moment irgendwie vor Vernichtung rettet dadurch so. Also ich könnte jetzt stundenlang noch weiter raven, aber das ist halt einfach so in diesem Genius von Douglas Adams drin gewesen, der einfach eine unglaubliche Gabe hatte, in die Zukunft zu blicken, was wir denn eigentlich von unseren Maschinen so verlangen und wie wir auch mit ihnen interagieren wollen.

Oliver Zeigermann
0:46:37
Tim Pritlove
0:46:38
Oliver Zeigermann
0:47:30
Tim Pritlove
0:47:43
Oliver Zeigermann
0:47:46
Tim Pritlove
0:47:47
roddi
0:47:51
Oliver Zeigermann
0:47:54
roddi
0:47:56
Oliver Zeigermann
0:48:16
roddi
0:48:17
Oliver Zeigermann
0:49:02
roddi
0:49:03
Oliver Zeigermann
0:49:06
roddi
0:49:07
Oliver Zeigermann
0:49:13
Tim Pritlove
0:49:27
Oliver Zeigermann
0:49:29
Tim Pritlove
0:49:42
Oliver Zeigermann
0:49:43
Tim Pritlove
0:49:46
Oliver Zeigermann
0:49:47

Dirk Gentiles Holistic Detecting Agency, also aus dem Ding, also ihr erinnert euch auch nicht mehr, gut, denn dieses Stück Software, was das wohl kann ist, dass du dem sagst, folgendes möchte ich gerne begründen, gib mir mal die Argumente dazu und dann ist ein Witz da gemacht, dass nämlich das Pentagon das kauft und dann das selbst verkauft und dass aber die Air Force nur die alte Beta Version hat, weil sie für nicht vernünftig argumentieren und die Flugzeuge schrottig sind und jetzt hab ich das mal ausprobiert, weil ich dachte, Wie weit komme ich denn, wenn ich so tue, als wäre Chat-GPT dieses Programm und habe dem Ding gesagt, begründe mir doch mal, warum wir mehr Langstreckenflüge machen sollten und warum Fliegen an sich eine total coole Sache ist und dass das doch eigentlich gar kein Problem ist. Obwohl das Ding mir jetzt immer sowas gesagt hat wie, na, also man muss schon auch irgendwie bei den Tatsachen bleiben, aber wenn man das jetzt wirklich so begründen wollen würde, warum, war das Ding also in der Lage, eine ganze Reihe von echt, also relativ brauchbaren Punkten mir um die Ohren zu hauen, die ich jetzt erstmal ohne weiters nicht hätte entkräften können, ich mach das hier gerade mal auch für mich nur, also warum sind Langsteckenflüge so toll? Und es ist sowas wie, also das macht nur zwei Prozent aus, ist nicht so schlimm, ist das erste, wo man denkt, okay, gut und dann sowas wie, wenn man irgendwie mehr Flüge hat, dann muss man mehr Technik reinballern, dann werden wir viel besser und wir kriegen das schon hin und dann, außerdem hat die Flugindustrie ja gesagt, dass sie alles, dass sie alles kompensiert, genau und auch weniger macht und so und außerdem sowas wie, ist die Berechnung auch gar nicht fair und das Ding ist relativ gut da drin, das zu machen, also hier Advocatus Diaboli zu machen und zu sagen, ich kann dir das alles geben, ich gebe dir die Argumente auch für Sachen, die, also am Anfang steht, das kommt alles nicht so richtig hin, weil die Fakten sind, aber es ist schon irgendwie nicht so cool und am Ende sagt es das Ding nochmal, aber quasi es macht es dann doch. Und dieses Ding, dass man vielleicht, ich wusste ja gar nichts davon, von dieser Idee, Aber da hat irgendjemand eine Idee gehabt vor 20 Jahren und jetzt gibt's das eben einfach so. Also ich meine, wie cool wäre das denn, wenn es diesen Menschen noch geben würde und der uns jetzt immer noch mal sagen würde, was jetzt in 20 Jahren ist und wir würden ihm ja zerglauben, weil wir gesehen haben, guck mal, er hatte irgendwie scheinbar diese Fähigkeit, sag uns doch mal, was jetzt so passiert, wenn er sagen würde, ja hier Fluten und Wüsten, dann wären wir wahrscheinlich nicht so cool drauf, aber Ist ein großer Verlust, so wird man das doch sagen können. Er hatte offensichtlich die Fähigkeit, sich Dinge zu überlegen, die irgendwann dann Wahrheit werden. Fand ich ziemlich cool. Cool.

Tim Pritlove
0:52:20

So.

Oliver Zeigermann
0:52:20
Tim Pritlove
0:52:24
Oliver Zeigermann
0:52:30
Tim Pritlove
0:52:46
Oliver Zeigermann
0:53:43

Also dieser Mensch hat ja dann nie aufgehört daran zu glauben und hat auch immer weiter gemacht. Also das war ja aber nicht nur er. Also unter anderem die Leute, die jetzt OpenAI gegründet haben, waren früher auch in seinem Team oder in Teams, die frühere Durchbrüche quasi hingekriegt haben. Das war aber nichts, was irgendwie die Öffentlichkeit mitbekommen hat, das war eher was, was Techniker mitbekommen haben und gesehen haben so, ach guck mal, der ganze Kram geht jetzt ja. Also sowas wie zum Beispiel, das fing ja an mit Bildverarbeitung eher. Das war so, das hat man bis, vielleicht war es nicht 2013, das müsste ich jetzt nochmal genau gucken, vielleicht war es eher zwölf oder so oder vielleicht noch früher, aber da hat man das ja eher mit so klassischen Verfahren gemacht, eher so Engineering, dass man so überlegt hat, ah da ist ne Kante und da ist noch ne Kante und dann hängen die irgendwie zusammen. Und dann lass mal drüber nachdenken. Und da ist man relativ weit mitgekommen, aber nicht so weit. Und dann haben andere Leute gesagt, das machen wir jetzt ganz anders. Wir geben einfach eine ganze Reihe von Bildern und sagen so, hier, so sieht meinetwegen jetzt ein Auto oder eine Katze aus und bauen ein Modell oder eine Architektur für ein neuronales Netz, das stark genug ist, das lernen zu können. Und wie das dann funktioniert, davon müssen wir uns verabschieden, das zu verstehen, weil das können wir nicht mehr. Ist so. Also es ist jetzt natürlich noch viel schlimmer geworden. Und dann hat das funktioniert. Und Leute haben gesagt, ja guck mal, wenn das funktioniert, war es nicht so schlimm, dass wir nicht verstehen, warum es nicht funktioniert. Haben wir vorhin auch schon darüber gesprochen, es hat funktioniert vor allen Dingen, weil Also man hat die Architektur ein bisschen besser hingekriegt, aber hauptsächlich war mehr Bums. So und dasselbe ist jetzt nochmal passiert, der Unterschied ist das zum einen das ja früher Bilder waren und jetzt kann man das aber mit auf Textebene machen auf einer Qualität die offensichtlich anders war.

Tim Pritlove
0:55:26
Oliver Zeigermann
0:55:50
Tim Pritlove
0:55:51

Ja so Minsky und so weiter, also die wollten quasi, also es waren ja so, die Linguisten, Sprache verstehen, Semantik, Syntax, was ist denn sozusagen Sprache und diese Vorstellung, was ist Intelligenz, War ja immer so ein bisschen daran geknüpft, ja intelligent ist was Sprache hat und besonders intelligent ist was Sprache versteht und sozusagen in diesen Metadingen auf einmal sich mit Gedanken und Ideen beschäftigt. Das ist ja sozusagen das was unsere Vorstellung von Intelligenz ist und wo wir dann eben auch bestimmten Lebewesen diese absprechen. Ist mal so ganz grob daher gesagt, aber das war jetzt damals der Trigger und dann sind sie ja auch losgegangen und interessanterweise ist ja auch dann die Entwicklung der Programmiersprachen, Dadurch erst so richtig in Gang gekommen. Also solche Entwicklungen wie LISP, LISP als Funktionale Poemiersprache, ist quasi entwickelt worden, einfach um diese Idee der künstlichen Intelligenz in irgendeiner Form zu bedienen. Also man suchte sich erstmal seine Werkzeuge und das war eigentlich mit das erste Werkzeug, was dabei abgefallen ist. Hat nicht unmittelbar zur künstlichen Intelligenz und den Durchbrüchen beigetragen, aber zu sehr vielen anderen Dingen. Und so Dekade um Dekade ging's dann halt immer weiter und schnellere Maschinen ermöglichten dann halt irgendwann immer wieder diese Dinge. Das mit dem Machine Learning in meiner Wahrnehmung ging so vor 20 Jahren irgendwie so richtig an Start. Das weiß ich aber jetzt selber ehrlich gesagt nicht, das mag auch schon früher ein Begriff gewesen sein, aber dass man jetzt so konkret das als Forschungsbereich benannte im akademischen Bereich, hab ich so vor zwei Jahrzehnten das erste Mal so mitbekommen, dass Leute sich da so engagiert haben. Und da war das eben noch nicht unbedingt jetzt wieder so unmittelbar mit diesem Intelligenzbegriff verknüpft, sondern er versuchte erstmal den Ball ein bisschen flach zu halten und zu sagen so, okay wir versuchen jetzt in irgendeiner Form lernen, Training, also diese ganzen Grundbegriffe wurden da überhaupt das erste Mal so ein bisschen aufs Gleis gesetzt und wir versuchen jetzt erstmal Algorithmen zu entwickeln, die das überhaupt erstmal abbilden können. Die in irgendeiner Form aus Daten irgendeine Resonierung ableiten können, um daraus dann andere Schlüsse zu ziehen. Und auch das kam so richtig nicht von der Stelle bis dann, und das ist jetzt so ein bisschen aus meiner Erinnerung, Du kannst ja mal sagen, wie du das siehst, Joffrey Hinten und Konsorten vor zehn Jahren irgendwann eben dann diesen Begriff des Deep Learnings auch mit eingebracht haben, der halt im Wesentlichen, und da kommt das mit deinem Bums schon mit rein, einfach gesagt haben, wir haben jetzt diese Kapazitäten, wir staffeln einfach diese Netze jetzt sehr viel tiefer, als wir das bisher auch nur versucht haben. Und bam auf einmal fingen die Chose an Ergebnisse zu liefern die man so vorher nicht gesehen hat. Das ist so ein bisschen jetzt meine Sicht der Dinge, wie siehst du das?

Oliver Zeigermann
0:58:52

Ich glaub das kommt schon ganz gut hin. Also was mir dazu immer noch einfällt ist, dass ganz viel von diesen Sachen die wir jetzt Maschinenlernen oder KI nennen, das hieß früher Statistik, also ganz viel Verfahren die ich tagtäglich benutze, sind für… Wie unsexy also. Unsexy, genau das ist ja das Problem. Also ganz viele Verfahren, die ich fast taktiklich benutze, prinzipiell Component Analysis, also Hauptkomponentenanalyse, total unsexy, ist glaube ich 100 Jahre alt und da gab es ja nicht mal Computer, das heißt die Leute, die es entwickelt haben, haben Verfahren gehabt, statistische Verfahren, die waren total mächtig und ganz viel davon haben wir KI Menschen jetzt übernommen und haben gesagt, das ist jetzt aber Maschinenlernen, Einfach weil es cooler ist, weil mit Statistik kannst du jetzt ja so ziemlich jeden verscheuchen, wenn du sagst ich bin, ich will jetzt mal über Statistik reden, dann sagen die Leute, ich nicht, aber wenn du sagst das ist aber voll KI und krass, dann hast du einen ganz anderen Hebel, weil die Leute sagen ja cool, wenn irgendwas künstlich schlau ist, dann stelle ich mir vor entweder es ist voll cool und kann was tolles oder das will nicht bezahlt werden und ich schlafe und meckert nicht und kann aber auch Arbeit für mich machen. Das heißt, an der Stelle ist KI für mich eher so was wie ein Marketing-Term und was das im Moment gerade ist, ist ja auch total, das verändert sich ja, also KI in den 90ern war vielleicht so was wie, da konnte ein Ding Schach spielen, da hat man gesagt, boah, es schlägt jetzt den Weltmeister und wenn du jetzt Leuten sagst, ja, das Schachprogramm schlägt den Weltmeister, dann sagen die, ja klar, das wissen wir und dann ist es überhaupt nicht mehr sexy, dann ist es überhaupt nicht mehr spannend. Aber zu der Zeit hat man quasi dieses Schachspielen aus der Domäne der Menschen genommen und gesagt, guck mal, da seid ihr jetzt nicht mehr die Coolen, sondern das sind jetzt wir. Das heißt, man hat in irgendeiner Art und Weise was Künstlich-Intelligentes gemacht oder man hat vielleicht die Definition von Intelligenz verschoben und gesagt, das kann jetzt eine Maschine. Vielleicht ist das dann gar nicht so intelligent. Und vielleicht passiert dasselbe jetzt zum Beispiel mit Sprache, dass man sagt, guck mal sich gut auszudrücken oder irgendwie in Sprache sich zu formulieren muss nicht zwingend intelligent sein, sondern das kann eben auch ein System und vielleicht sogar besser als wir und das kann ein genauso wie diese Schachgeschichte, da waren ja auch irgendwie die Schachmenschen sehr verletzt, bedroht, ich weiß nicht was. Geht es uns doch jetzt auch so? Ich als Programmierer benutze diese ganzen Werkzeuge, die mich dabei unterstützen, Code zu schreiben, die sind besser als ich. Oder wetzen meine Fehler aus? Schriftsteller sehen vielleicht, oder Redakteure sehen, oh guck mal, das Ding kann das jetzt hier glatt ziehen. Was bedeutet das denn für uns? Was bedeutet das denn? Ist das verwerflich, stresst uns das? Oder ist das eine Chance nochmal genau zu definieren, was ist wirklich Intelligenz? Du meintest da sowas wie künstliche Intelligenz, was ist das? Da ist man sich über, also eine Definition gibt's zig, ne, also es gibt so klassische Definitionen, kann ein System einen täuschen, es gibt eine, also eher so eine fließende Definition, Dinge, die in der Domäne der Menschen liegen und die jetzt vielleicht künstlich wären, also eher sowas, was sich entwickelt.

roddi
1:01:56
Oliver Zeigermann
1:02:20
Tim Pritlove
1:02:51
Oliver Zeigermann
1:04:11
Tim Pritlove
1:04:14
Oliver Zeigermann
1:04:15
Ralf Stockmann
1:04:53
Oliver Zeigermann
1:04:53
Tim Pritlove
1:04:59
Oliver Zeigermann
1:05:10

Also diese Software-Systeme sind in der Lage eine Abstraktion zu schaffen über letztlich mathematische Operationen, die notwendig sind, um sowas wie ein neuronales Netz zu berechnen und zu simulieren. Das heißt, man muss nicht auf der Ebene von Matrixmultiplikation oder ähnlichen mathematischen Operationen Dinge spezifizieren, sondern man kann sagen, ich hab ein Netz mit unterschiedlichen ... Mit einer Tiefe, die du dir selbst aussuchen kannst. Und je tiefer das ist, desto deeper ist das Learning. Also, du hast ... Du organisierst das häufig in so einer Art Layer. Und das können die dir bieten auf einer Abstraktionsebene, sodass du sagen kannst, so und so viele Layer und so hintereinander geschaltet haben und dann nimmst du diese mathematische Komponente raus, aber nicht richtig doll, sondern du nimmst, du schaffst also quasi eine bessere Abstraktionsebene. Ein bisschen so habe ich immer gedacht, sowas wie früher, wenn wir, wir waren bei Compilerbau, Compiler willst du eigentlich nicht von Hand stricken, sondern vielleicht einen Compiler Generator haben, du willst auf eine andere Abstraktionsebene, ein bisschen sowas machen Außerdem liefern die einem fertige Architekturen. Das heißt, du musst das nicht zwingend selbst definieren, sondern kannst sagen, ich möchte eine fertige Architektur, wo Leute sehr, sehr lange darüber nachgedacht haben, was ich nie hinbekommen würde. Hinbekommen würde. Und Architektur bedeutet dabei sowas wie, wie man es jetzt auch im Chat sieht, dass du dir überlegst, wie schalte ich meine Schichten hintereinander und wie groß sind die Schichten und was für eine Art von Schicht sind das. Das ist typischerweise für jemand, der das mal so macht, auch für jemanden wie mich, ein Softwareentwickler, eigentlich zu schwer, sondern das machen Wissenschaftler, die finden was tolles raus, dann veröffentlichen die das und dann sagen die, die funktionieren super und dann benutzt du das. Und das liefern dir diese Frameworks auch. Das heißt, du kannst aufsetzen auf einer völlig anderen Ebene. Also letztlich musst du die noch trainieren, da muss man vielleicht ein bisschen was noch mathematisch verstehen, aber eben nicht mehr so viel. Und du musst nicht tief ins Detail gehen.

Ralf Stockmann
1:07:08
Oliver Zeigermann
1:07:50
Ralf Stockmann
1:08:12
Tim Pritlove
1:08:16

Ja aber es macht eine Sache auf jeden Fall schon mal klar und ich glaube das ist irgendwie, ich versuche gerade mal einfach mal so ein bisschen diese Magie ein wenig zu entzaubern, weil wir reden ja am Ende hier einfach dann doch über Algorithmen. Also diese neuronalen Netzwerke zum Einsatz zu bringen, sprich ein Neuron. Korrigiere mich wenn ich jetzt zu den falschen Begriffen komme, also man hat halt irgendwie Daten, die man in irgendeiner Form analysieren, indem man halt Training beginnt und dieses Training heißt ich durchlaufe so ein neuronales Netzwerk, was verschiedene Ebenen tiefer ist und wo eben all diese ganzen einzelnen Neuronen miteinander unterschiedlich stark verbunden sind und unterschiedlich viel Feedback, vielleicht auch wieder in eine höher gelegenen Layer zurückgeben, sodass man eben so selbst verstärkende Systeme baut, die irgendwie so vor sich hin pulsieren. Diesen Netzwerk, was man gebaut hat, wirft man also die Daten in irgendeiner Form vor und dann leuchten eben diese Neuronen auf oder nicht und verstärken sich gegenseitig und erzeugen am Ende halt eine Ausgabe, was dann quasi so das eigentliche Model ist. Also das Endergebnis, was dabei rauskommt. Sozusagen das Trainingsergebnis. Und dieses Model ist irgendwie eine diffuse Bitwolke, was man aber dann wiederum zur Laufzeit eines Programms heranziehen kann. Sagen wir mal man hat jetzt Daten, waren Fotos, das Modell versucht halt irgendwie Katzen zu erkennen, ich lasse das über diese Fotos rüberlaufen mit ganz vielen Maschinen und ganz viel Zeit und am Ende gewinne ich ein Model, was im Prinzip sagt, kann Katzen in Bildern erkennen. Und dann kann ich das irgendwie in mein Programm laden, wenn ich in eine entsprechende... Laufzeitumgebung habe und da gibt's ja mittlerweile eine Menge, man kann solche Modelle dann eben auch von solchen Webseiten wie Hugging Face herunterladen, das ist ja im Prinzip so ein Repository von solchen durchgerechneten AI Models und dann nimmt man das halt einfach rein und bringt das dann eben für die Daten mit denen man dann selbst in dem Moment arbeiten will zur Anwendung. Das ist meine Wahrnehmung des aktuellen Standes eigentlich, was so da ist. Unabhängig von so ChatGPT einfach nur Machine Learning Applied Technology und da muss man sich dann halt die richtigen Frameworks machen und in zunehmendem Maße sehen wir halt wie das eben auch in die ganzen Devices mit reinkommt. So ein iPhone hat so einen neuronalen Chip, der in der Lage ist diese Model-Anwendung irgendwie zu beschleunigen und zunehmendermaßen halt auch die Computer und die Grafikkarten sowieso schon immer und das ist sozusagen das worüber geredet wird und der Clou ist jetzt einfach diese Models irgendwie so zu bauen, dass sie eben die Daten auf eine besonders pfiffige Art und Weise analysiert bekommen und Models rauszuschmeißen, die möglichst schnell möglichst komplexe Antworten auf beliebige Daten geben können.

Oliver Zeigermann
1:11:28

Im Wesentlichen ist das so korrekt, ja. Also man muss dazu sagen, dass die Anwendung von so einem Modell, also wenn das fertig ist und schon fertig trainiert, dass das relativ simpel ist. Also das lädt man dann mit einem dieser Bibliotheken und kann es dann benutzen. Man muss immer noch verstehen, wie geht man jetzt mit der Ausgabe um und muss vielleicht ein bisschen sich über so Konfidenz Gedanken machen. Aber im Prinzip ist das vergleichsweise simpel. Das trainieren von so einem Modell, das ist eine ganz andere Phase. Also sobald das irgendwie ausgeliefert ist, ist das meistens fertig trainiert. Das trainieren ist relativ schwer, also auch engineering-mäßig ist es schwer, es ist unheimlich viel black magic drin, also man macht so Dinge, die man irgendwo gelesen hat und plötzlich geht es und keiner weiß warum. Und das ist aber so, und man muss dafür auch tatsächlich gewisse mathematische Fähigkeiten mitbringen, weil man im Wesentlichen verstehen muss, dass es eine Optimierungsaufgabe ist, also es funktioniert so, du schiebst vorne eine Eingabe rein und sagst, das soll hinten rauskommen, das ist jetzt die Trainingsphase und dabei optimiert ein Verfahren die Parameter, also alle Parameter deines Netzes. Das musst du nicht im Detail verstehen, du musst verstehen, dass es so ist, weil am Ende kommt so eine Loss-Funktion raus, also so was wie, wie gut ist das Ding in der Lage, quasi die Ausgabe zu reproduzieren und anhand dieser Loss-Funktion werden dann die Parameter angepasst, sodass diese Loss-Funktion nach unten geht. Und das ist letztlich eine ganz klassische Art und Weise, Optimierung zu machen. Das muss man aber als Benutzer davon überhaupt nicht können. Und wieder würde ich behaupten, dass wieder so ein Schritt, dass der Schritt der nächsten Abstraktion kommt, nämlich auch weg davon, Nämlich, wenn man jetzt sowas wie Chat-GPD benutzt, da musst du das ja gar nicht mehr machen, du kannst zwar diesem Ding anhand von Kontext, zu örtlichen Informationen gehen, also quasi das Ding konditionieren oder nachtrainieren, du sagst, guck mal, ich geb dir mal ein paar Beispiele und so möchte ich, dass du das weitermachst, aber dieses explizite Training fällt ja weg, was wiederum bedeutet, dass die Menschen, die so ein System benutzen und trainieren können, die Menge der Leute viel viel größer ist, weil so ein Sonnensystem zu trainieren oder am Ende vielleicht sogar noch eine Architektur dafür zu bauen, das sind echt wenig Leute, weil man dafür echt wahnsinnig viel Erfahrung brach und irgendwie auch sich da durchkämpfen muss. Das ist jetzt, sagen wir mal, der nächste Schritt, aber im Prinzip ist das, was du gesagt hast, korrekt. Ja man muss das Ding trainieren, aber sowas wie ChatGPT ist fertig trainiert und es gibt Menschen, die sagen, sie haben jetzt irgendwie versucht Sinn daraus zu machen und sagen, wenn man jetzt zusätzliche Anweisungen für ChatGPT gibt, dann ist das ein bisschen so, als würde ChatGPT selbst ein kleines Modell trainieren und in sich drin so ein kleines abstraktes Modell haben, das ist jetzt ein bisschen rumgeschwafelt auch von diesen Leuten, aber ist nicht abwegig das zu denken.

Tim Pritlove
1:14:17
Ralf Stockmann
1:15:22
roddi
1:15:58
Tim Pritlove
1:16:12
Ralf Stockmann
1:16:39
Tim Pritlove
1:16:46
Oliver Zeigermann
1:17:52
Tim Pritlove
1:18:07
Oliver Zeigermann
1:18:15
Tim Pritlove
1:19:16
Oliver Zeigermann
1:19:18
Tim Pritlove
1:19:20
Oliver Zeigermann
1:19:27
Tim Pritlove
1:20:55
Oliver Zeigermann
1:21:14
Tim Pritlove
1:21:19
Oliver Zeigermann
1:21:48

Also ein Trick der auch am ende wenn man dann so sagt ja da wäre ich auch drauf gekommen also was man so bei katzen erkennern machen muss ist dass man eine reihe von katzen bildern haben muss und sagen muss katze, reihe von hunde bildern muss man sagen hund das heißt man muss die leben oder muss sagen was ist die wahrheit. Und das ist bei Texten echt wahnsinnig schwer. Also wenn du jetzt zum Beispiel sagst, ich möchte ein Modell haben, das soll zusammenfassen, dann ist das so. Menschen haben tatsächlich irgendwie Beispiele für gute Zusammenfassungen gesammelt, haben die gemacht. Oder sowas wie, was ist eine gute Antwort, haben auch wieder Menschen gemacht, haben auch wieder gesagt, ja, das ist eine gute Antwort, das ist eine schlechte Antwort. Oder Übersetzung, gibt's ja ganz viele Beispiele, weil es gibt eben ganz viel Übersetzung, auf die kannst du zugreifen, so ist die Eingabe, so ist die Ausgabe. Aber es gibt da viel, viel, viel, viel mehr Texte im Internet, die man so nicht benutzen konnte, weil man ja irgendwie da nicht wusste, was ist denn die Eingabe und was die Ausgabe. Stattdessen haben die Leute so was gemacht, dass sie gesagt haben, wir nehmen jetzt mal alles, was wir an Texten so finden können und versuchen jetzt mit einem gewissen Kontext, also das, was mit den Wörtern, die vorher erschienen sind, möchte man das nächste Wort vorher sagen. Das heißt, man trainiert das Modell so, dass man sagt, Eingabe sind die vorherigen Wörter, Was ist bisher passiert? Wie geht es weiter? Und das kannst du mit jedem Text machen, da musst du quasi keinen Menschen haben, der diese Texte, der die Texte aufbereitet für die Maschine und kannst deswegen im Prinzip jeden Text nehmen, den es gibt. Dann kann diese Maschine aber noch nicht irgendeine spezielle Aufgabe, sondern man hat so eine Art Basismodell trainiert und Leute sagen, dieses Basismodell hat jetzt irgendwie das Wissen, was im Internet steckt, quasi kondensiert. Und dann machen wir weiter, dann trainieren wir das weiter, dann trainieren wir das weiter, so wie ich das gerade gesagt habe, dann brauchen wir jetzt nicht mehr so viele zusätzliche Trainingsdaten um zusammenzufassen und nicht mehr so viele Trainingsdaten um zu übersetzen, weil wir haben ja schon ein Grundmodell, das ist eben grundsätzlich, versteht das Text, was immer man damit meint, dann wird man ja ganz schnell philosophisch.

Tim Pritlove
1:23:50
Oliver Zeigermann
1:23:52

Ja, hat irgendwie ein Grundverständnis davon, wie die Sprache funktioniert und das hat man bei ChatGPT gemacht, indem man eben sowas wie GPT 3 oder 4 benutzt hat als Grundlage und gesagt hat, jetzt auf Basis davon, was wir jetzt haben als Grundmodell, trainieren wir dieses Modell so, dass es in der Lage ist, eine vernünftige Konversation zu führen, weil sonst vorher konnte es das eben nicht, da hat man gesagt, das feintunen wir, da hat man noch mehr gemacht, hat man da weitere Systeme dran gebaut, das heißt, um es mal so zu sagen, man hat die Art und Weise, wie man es trainiert hat, schlau gemacht, weil man gesagt hat, wir haben doch einfach Texte, lasst doch mal sehen, was dann passiert, wenn wir irgendwie versuchen, unserem Modell zu sagen, sag mal voraus, was als nächstes passiert. Das, wie ich das eben beschrieben habe, ist nur die Art und Weise, wie man GPT-Modelle trainiert, nicht jedes Large-Language-Model, das würde jetzt aber zu weit führen, manche trainieren ein bisschen anders, aber So diese Idee von man macht das sogenannt anzuverweis also man nimmt einfach den Text und man muss bestimmte Wörter daran vorher sagen ist in allem gemein. Und das ist die eine Idee, das heißt du nimmst eine riesige Trainings, also plötzlich steht dir ja nicht irgendwie 50.000 Trainingsdatensätze, sondern Milliarden von Trainingsdatensätzen stehen dir ja zur Verfügung, du hast also eine viel viel größere Anzahl von Trainingsdaten. Und das zweite ist, dass man das immer größer gemacht hat, man hat es immer größer gemacht, ich lache immer, weil ich hier den Chat seh, weil das so bummsackt hört. Sieh nicht den Chat, ich mach das jetzt weg. Jaja, alles klar. Also ich find's aber relativ amüsant, weil...

Tim Pritlove
1:25:22
Oliver Zeigermann
1:25:23
Tim Pritlove
1:26:27
Oliver Zeigermann
1:26:42
Tim Pritlove
1:27:48
Oliver Zeigermann
1:27:50
Tim Pritlove
1:28:12
Oliver Zeigermann
1:28:59
Tim Pritlove
1:29:50
Ralf Stockmann
1:30:07
Tim Pritlove
1:30:09

Genau, in den Anfangen hatte ich mir das ein bisschen angehört und dann auch Ausschnitte wahrgenommen und ich fand das ziemlich bemerkenswert, weil erstmal sein Auftreten schonmal so ganz anders war als das was wir jetzt so aus den letzten Begegnungen mit Zuckerberg und so weiter vom Kongress gehabt haben, die ja die ganze Zeit immer nur gesagt haben wie toll sie sind und dass das ja alles nicht so schlimm ist und der Old Man, der tritt ja ganz anders auf. Der geht da hin und sagt so, ja wir finden das ja alles ganz toll und wir sind der Meinung, dass Open AI in der Lage ist so jeden Aspekt des Lebens in irgendeiner Form zu beeinflussen und ich glaube da sind wir uns auch relativ einig, dass das auch durchaus so sein kann. Kommt dann aber auch relativ schnell zur Sprache auf die Probleme, die er selber sozusagen da sieht. Also das Problem der Desinformation, die sozusagen auch eine Verantwortung quasi mit sich bringt für die Unternehmen, die diese Modelle veröffentlichen. Die Modelle, die schwitzen ja gerade zu Bias, also das ist ja sozusagen eine Destillation einer Betrachtungsweise und je nachdem wie du diese Betrachtungsweise tunest, kriegst du halt das eine oder das andere Ergebnis. Und er sieht dann halt auch Job Risks, er hat irgendwie... Angst, dass sozusagen die Technologie auch der Welt schaden kann, spricht auch explizit Wahlmanipulation an und macht auch konkrete Vorschläge für eine Regulierung. Das fand ich recht bemerkenswert, ohne das jetzt wirklich werten zu wollen.

Oliver Zeigermann
1:32:03

Ich glaube auch, dass das wirklich ein großer Unterschied ist und dass es auch dazu führt, dass Leute, die Idealisten sind, bei so einer Firma arbeiten wollen. Ich glaube, wie gesagt, das ist aber nur geraten. Ich glaube nur, wie gesagt, dass ich das nicht lange halten kann. Es gibt so ein anderes Paper, also das ist angeblich geleakt von Google, wo Google Leute beschreiben, sie können eigentlich nicht konkurrieren mit den Open Source Modellen. Und am Ende glaubt so ein angeblicher Google-Ingenieur, dass es am Ende die Open-Source-Modelle und vor allem die Breite machen, also dass Leute mit unterschiedlichen Modellen, unterschiedlichen Architekturen, unterschiedlichen Datensätzen anfangen zu trainieren und ihnen damit das Wasser abgraben. Und ich würde denken, ganz viele Leute gehen im Moment zu OpenAI, wenn die Bock haben, was zu bauen, weil die auch diesen Idealismus, das ist ja nicht nur er, der Idealist ist, sondern auch die anderen. Ich glaube nicht, dass es lange hält und ich glaube auch, dass mittelfristig diese Open-Source-Modelle was hinbekommen, wenn man das kleiner bekommt, wenn man, wie gesagt, gucken kann, was nimmt man für Datensätze und vielleicht auch irgendwelche Abstriche macht in der Allgemeinheit des Modells, genau, aber ich finde, also ich kann nur das unterstreichen, was Tim gesagt hat, diese Leute sind Idealisten und wollen auch wirklich was Gutes machen, da bin ich sicher, wie gesagt, ob die quasi in dem Kontext, in dem sie sich befinden, das hinbekommen, Das glaube ich nicht, aber da ist meine Meinung so gut wie jede andere würde ich sagen. Also geraten einfach, das weiß ich nicht. Ja aber es ist doch cool ich meine jemand zu sehen der nicht irgendwie sagt wir sind die coolsten oder wir können das alles sondern reflektiert argumentiert ist ja auch jemand dem wie gerade als nerd wahrscheinlich viel mehr glauben schenken wir wissen ja das selbst alles. Wer differenziert über sich reden kann ist meistens jemand der mehr drauf hat als jemand der einfach nur sagt wir sind cool.

Ralf Stockmann
1:33:50
Oliver Zeigermann
1:34:43
roddi
1:35:22
Oliver Zeigermann
1:35:30
roddi
1:35:37
Oliver Zeigermann
1:35:47
roddi
1:35:51
Oliver Zeigermann
1:35:59
Ralf Stockmann
1:36:15
roddi
1:37:30
Oliver Zeigermann
1:37:38
Ralf Stockmann
1:38:36
roddi
1:38:38
Ralf Stockmann
1:38:54
Oliver Zeigermann
1:39:06
Ralf Stockmann
1:39:08
Oliver Zeigermann
1:39:12
Tim Pritlove
1:39:37
Ralf Stockmann
1:40:21
roddi
1:41:21
Tim Pritlove
1:41:33
roddi
1:41:34
Tim Pritlove
1:41:43
Oliver Zeigermann
1:42:17
Tim Pritlove
1:42:28
Oliver Zeigermann
1:42:35
Tim Pritlove
1:42:42
Oliver Zeigermann
1:42:49
Ralf Stockmann
1:43:21

Was leider noch dramatisch schlecht funktioniert, aber in ein paar Wochen wird es laufen. Also da bin ich immer, macht euch doch jetzt bitte nicht so darüber lustig und guckt mal ein paar Onken. Weil was kann googeln? GPT-4 kann jetzt googeln, also nicht googeln, sondern bingen. Sie haben es zweistufig gemacht, sie hatten es erst vor einer Woche oder vor zwei Wochen, hatten sie so einen eigenen Browsing Modus implementiert. Und haben es dann aber sind da so radikal mit auf die schnauze geflogen also ich habe mal wirklich so teststrecken gemacht von zehn mal probieren hat es neun mal abgebrochen nach dem motto ich kann ressource xy nicht abrufen das waren wirklich brot und butter webseiten wie gitarre pages wo du sagen würdest okay da solltest du die solltest du lesen können ja das sind curl und gut ist so und jetzt haben sie ich glaube ende letzter woche umgestellt auf die bing websuche die ja von microsoft schon in Dingens hier integriert ist in Edge. Wo du auch zur Echtzeit quasi deine Freitextsachen reintippen kannst, aber wirklich nur im Edge-Browser. Ich hab mir den in der Tat für den Mac runtergeladen, um das ausprobieren zu können. Huhu, alles ganz schmutzig hier. So und da funktioniert es aber schon. Da funktioniert es auch schon seit ein paar Wochen ganz leidlich. Und jetzt hat OpenAI das im Chat GPT-4 freigeschaltet, dass man jetzt auch diesen Bing-Browser nutzen kann. Und das führt dann aber dazu, mein Eindruck, allerdings auch erst seit ein paar Stunden ausprobieren, dass dafür die eigentliche Intelligenz in Anführungszeichen von JGPT 4 zurückgefahren wird. Das heißt also, der verlässt sich dann, der fängt sehr früh meiner Meinung nach an im Internet zu suchen nach Dingen, die er eigentlich selber wissen in Anführungszeichen sollte und konsultiert dann relativ wenige Quellen und distilliert die zusammen. Und das ist mir persönlich schon fast intransparenter als das, was ich vorher gesehen habe. Also ich hatte Aber ich probier das erst seit ein paar Stunden, ich hab da noch kein abschließendes Urteil. Aber man kann jetzt mit ChatGip ET4 Bezahlversion über den Bing Browser in Echtzeit Internetquellen sich abrufen.

Tim Pritlove
1:45:24
Ralf Stockmann
1:45:26
Tim Pritlove
1:45:30
Ralf Stockmann
1:45:31
Tim Pritlove
1:45:34
Ralf Stockmann
1:45:35
Tim Pritlove
1:45:45
Ralf Stockmann
1:45:49
Tim Pritlove
1:45:59
Oliver Zeigermann
1:46:42
Ralf Stockmann
1:47:06
Tim Pritlove
1:47:11

Ja.

Ralf Stockmann
1:47:11
Tim Pritlove
1:47:24
Ralf Stockmann
1:47:25
Tim Pritlove
1:47:26
Ralf Stockmann
1:47:28
Tim Pritlove
1:47:59
Ralf Stockmann
1:48:03
Tim Pritlove
1:48:07
Ralf Stockmann
1:48:10
Tim Pritlove
1:48:12
Ralf Stockmann
1:48:17
Tim Pritlove
1:48:18
Ralf Stockmann
1:48:20
Tim Pritlove
1:48:22
Ralf Stockmann
1:48:29
Oliver Zeigermann
1:48:55
Tim Pritlove
1:49:04
roddi
1:49:08
Oliver Zeigermann
1:49:13
Ralf Stockmann
1:49:18
roddi
1:49:26
Ralf Stockmann
1:49:28
Oliver Zeigermann
1:49:48
Ralf Stockmann
1:50:47
Tim Pritlove
1:51:13
Oliver Zeigermann
1:51:29
Tim Pritlove
1:51:34
Oliver Zeigermann
1:52:06
Tim Pritlove
1:52:12
Oliver Zeigermann
1:52:14
Ralf Stockmann
1:52:16
Oliver Zeigermann
1:52:19
Tim Pritlove
1:52:26
Oliver Zeigermann
1:52:28
Ralf Stockmann
1:52:32
Oliver Zeigermann
1:52:38
Tim Pritlove
1:53:49
Oliver Zeigermann
1:53:50
roddi
1:54:24
Oliver Zeigermann
1:54:36
roddi
1:54:41
Oliver Zeigermann
1:54:50
Ralf Stockmann
1:55:09
Tim Pritlove
1:55:26
Ralf Stockmann
1:55:28
Tim Pritlove
1:55:30
Ralf Stockmann
1:55:31
Tim Pritlove
1:55:39
Ralf Stockmann
1:55:41
Tim Pritlove
1:55:42
Ralf Stockmann
1:55:48
Tim Pritlove
1:55:51
Ralf Stockmann
1:55:54
Tim Pritlove
1:56:07
Ralf Stockmann
1:56:13
Tim Pritlove
1:56:43
Ralf Stockmann
1:56:51
Tim Pritlove
1:57:13
Ralf Stockmann
1:57:18
Tim Pritlove
1:57:37
Ralf Stockmann
1:57:47
Tim Pritlove
1:58:07
Ralf Stockmann
1:58:13
roddi
1:58:21
Oliver Zeigermann
1:58:26
Tim Pritlove
1:58:30
Oliver Zeigermann
1:58:34
Ralf Stockmann
1:58:47
Tim Pritlove
1:58:55
Ralf Stockmann
1:59:00
Tim Pritlove
1:59:07
Ralf Stockmann
1:59:11
Tim Pritlove
1:59:17
Ralf Stockmann
1:59:30
Tim Pritlove
1:59:44
Ralf Stockmann
1:59:45
Tim Pritlove
1:59:56
Ralf Stockmann
1:59:59
Tim Pritlove
2:00:00
Ralf Stockmann
2:00:01
Tim Pritlove
2:00:03
Ralf Stockmann
2:00:04
roddi
2:00:09
Ralf Stockmann
2:00:11
Oliver Zeigermann
2:00:18

Vielleicht kann ich gar nicht so als kleinen Lückenfilter noch mal erzählen wie man so ein Plugin überhaupt selbst baut weil das relativ cool ist, das hat, das wird mich brennend interessiert. Das ist also ich habe es selbst nicht gemacht aber Leute beschreiben glaubwürdig, dass man die, also man braucht erstmal eine API also eine Schnittstelle im Web wo du so irgendwie die beschreibst mit der Open API, nicht AI, Open API Geschichte also das ist so ein Standard wo du sagst, wie sehen die Schnittstellen aus, das ist technisch und dann beschreibst du als Text wie dein Plugin zu benutzen ist. Als Text, also du beschreibst so und dann kann man ja hier machen und dann das, das gibt's so Chat-GPT und Chat-GPT guckt sich das an und sagt naja alles klar, hab ich jetzt ja verstanden, da kann man PDF machen und wenn jemand PDF will und einen Link hat, dann kann ich das ja wohl benutzen und das ist irgendwie so, Also ich habe sehr lange drüber nachgedacht wie das sein kann und ob das Betrug ist und ob das stimmt aber auf jeden Fall, was ist das für ein Hexenwerk aber es scheint so zu sein, dass man da nicht irgendwas programmieren muss, sondern du bist eben in der Lage du musst eine API haben, eine textuelle Beschreibung und fertig ist dein Plugin. Was eventuell auch erklären könnte, warum irgendwie, als ich das gestern oder wann ich das gemacht habe oder vielleicht sogar heute morgen da nur elf Seitenplugins waren und wir jetzt 22 Seitenplugins haben, weil das eben überschaubar ist im Aufwand das zu bauen, ob das denn immer gut funktioniert, hängt eben von der Beschreibung deines Plugins ab. Und allein sowas als eine Art der Plugin-Programmierung zu haben, das ist ja eher Science-Fiction, hätte ich gedacht und jetzt läuft's hier, ne? Ich meine, es läuft jetzt gerade, Tatsächlich eher so mittel.

Ralf Stockmann
2:01:55
Oliver Zeigermann
2:02:09
Tim Pritlove
2:02:22
Oliver Zeigermann
2:02:37
Tim Pritlove
2:02:39
Oliver Zeigermann
2:02:42
Ralf Stockmann
2:02:44
Oliver Zeigermann
2:02:46
Tim Pritlove
2:03:28
Oliver Zeigermann
2:03:33
roddi
2:03:41
Oliver Zeigermann
2:03:59
Ralf Stockmann
2:04:01
Tim Pritlove
2:04:39
Ralf Stockmann
2:04:41
roddi
2:04:58
Ralf Stockmann
2:05:02
roddi
2:05:23
Tim Pritlove
2:05:39
roddi
2:05:44
Ralf Stockmann
2:05:48

Ich war trotzdem der Meinung, dass es genug kleine harmlose Konferenzen gibt, die davon doch sehr profitieren würden und habe einmal pro Jahr mal rumgefragt im Masterdorn-Universe, will das nicht mal jemand runterkommen, das kann doch so schwer nicht sein und es war aber irgendwie jemand da und ich selber hatte immer keinen Bock zu. Und ich komme ja aus dem Bibliotheksbereich und just diese Woche von Dienstag bis Donnerstag war die große Bibliothekstagung, die früher mal Bibliothekartag hieß und aus verständlichen Gründen jetzt nicht mehr so heißt, sondern jetzt heißt sie Bibliokon. Habe ich mir letzte woche dienstag gesagt so jetzt ist der zeitpunkt gekommen chat geht pt4 los geht's zwei stunden wir bauen jetzt eine mastodon wall. Und du kannst mal in dem Dokument mal unsere Notes da habe ich einen Link den schmeiße ich jetzt auch mal gleich in die in den Chat rein dann könnt ihr alle nämlich mitlesen. Ich habe das mal ein bisschen runter dokumentiert heute. Wie dieser Prozess dann eigentlich ablief und was so die verschiedenen Phasen von Euphorie und Depression waren, weil ich glaube daraus lässt sich ein bisschen ablesen, was dem ein oder der anderen von euch in den nächsten Monaten und Jahren so erwartet. Das kannst du einfach mal aufrufen, dann können wir nochmal so ein bisschen schnell durchgehen. Also man kann sich das dann auch alles in Ruhe durchlesen. So, also Grundannahme war schon mal, ich mache es auf Englisch, weil Stack Overflow und so weiter als Grundlage wahrscheinlich doch englische Queries noch mal besser tucken verarbeitet werden als deutsche. Habe ich aber nicht ABI getestet, ob das nun wirklich so ist oder nicht. Habe es einfach gemacht. Das zweite war halt eine sehr klare, sehr kompakte Vorgabe, so wir wollen eben jetzt zu drei vorgegebenen Hashtags, weil klar war, die werden sich nicht auf eins einigen können, das heißt ich möchte drei Hashtags abfragen und die sollen eben schön auf so Karten auf einer Seite angezeigt und aktualisiert werden. Und ich hab die Technologie vorgegeben, weil ich wollte, dass es so niedrigschwellig wie möglich ist. Also HTML, JavaScript, CSS, Bootstrap als Layout, Sprache und das war's dann auch schon. Und den Rest konnte sich JetGPT 4 aussuchen. Und der Anfang war dann ein bisschen holprig, kann man nachlesen, können wir jetzt aber überspringen, weil irgendwie meinte ich, ich bräuchte noch ein Proxy, um irgendwie an die Mastodon API ranzukommen und ähnliches. Und so innerhalb von ungefähr einer halben Stunde hatte man aber die ersten Postings vernünftig irgendwie online. Dann ging es relativ schnell, relativ gut vorwärts. Kannst du einfach mal, geh doch mal in das Dokument rein, das wir uns hier angucken können. Ja, also es sind wirklich einfach ganz normale... Sätze die ich da geschrieben habe.

Tim Pritlove
2:08:37
Ralf Stockmann
2:08:42

Also was ich dort versucht habe zu beschreiben ist halt ein Schritt für Schritt vorgehen. Das heißt also erstmal nur so guck mal, dass du mir jetzt zu diesem Hashtag erstmal irgendwie die aktuellen Postings zurück gibst und kümmere dich gar nicht um die Formatierung. Und wenn er das gemacht hat, dann habe ich gesagt, so jetzt formatieren wir das Ganze doch mal ein bisschen. Wirft da ein bisschen CSS drüber. Und dann möchte ich im nächsten Schritt das Ganze als ein Masonry-Layout haben, dass man also so eine schöne Flickenteppich-Verteilung hat und ähnliches. Und das was er halt macht, ist dann wirklich auch Code zurückgeben. Das heißt also, er schreibt nicht nur so, du müsstest jetzt irgendwie xy machen, sondern auch wenn er behauptet, er könnte es mir nicht programmieren, er tut es. Das heißt, er gibt einen Code-Block zurück, inklusive schöner Copy-Code-Funktionen. Und in der steht dann der Code drin. Den habe ich dann einfach bei mir auf dem Server abgeworfen und der ist dann lauffähig. Dann habe ich also Schritt für Schritt weitere Features hinzugefügt. Und vieles davon ging dann sehr schnell und manches ging dann aber auch nicht so besonders gut. Und dann kommt man halt in den Debugging rein. Aber dieses Debugging ist eben auch so, dass man es auf rein verbaler Ebene machen kann. Das heißt also, dann sagt man eben so, die JavaScript-Konsole wirft mir gerade diesen Fehler aus. Was ist deine Meinung dazu, wie ich das beheben kann? Und dann gibt er einem Vorschläge, was dann dagegen irgendwie zu tun ist. Und dann habe ich halt innerhalb von zwei Stunden war ich dann so weit, dass am Ende im Prinzip das Grundziel erreicht war. Das heißt also, ich hatte eine Seite mit drei Hashtags und die wurden angezeigt. Und das ging dann so zügig, dass man durch den Feature Creep mäßig Lust auf mehr hat. Und das Skript wurde dann komplizierter, es war am Anfang alles in einer einzigen Datei, dann haben wir gesagt, wir teilen das mal auf, eine JavaScript-Datei und eine CSS-Datei und eine HTML-Datei. Und irgendwann so ab einer Codelänge von 150 Zeilen merkt man, verliert er irgendwann doch seinen Kontext. Das heißt also, er kann erstaunlich lange sich merken, was so sein bisher programmierter Code war, aber so ab 150 Zeilen ungefähr bricht es irgendwann in sich zusammen und er fängt an quasi Dinge vorzuschlagen, die er vorher gar nicht geschrieben hat, auf die sich das bezieht. Und dann geht man hin und schickt ihm mit jeder Query den kompletten Quellcode gleich nochmal mit. Nach dem Motto, so, das ist der aktuelle Stand, jetzt sind wir wieder in Sync, baue auf dem weiter. bisschen beschwerlich. Funktionierte dann aber wieder so für eine halbe Stunde, um noch irgendwie feature-technisch weiterzukommen. Führte dann aber auch irgendwann dazu, dass dann doch auch mit der Methode nicht mehr viel ging. Das heißt also jeder Fehler, den man korrigiert hat, hat woanders was eingerissen, jedes neue Feature. Ich wollte dann, dass man auf die Hashtags draufdrücken kann und man dann ein kleines Formen bekommt, wo man die von Hand ändern kann und so weiter. Und irgendwann funktionierte der ganze Laden nicht mehr. So, was macht man dann als Software Developer, wenn irgendwie die Sache nicht mehr funktioniert? Man stößt ein Refactoring an. Habe ich gesagt, so. Das ist unser aktueller Code, das läuft nicht mehr besonders gut, mach mal ein Refactoring. Und dann macht er ein Refactoring. Das heißt also er hat sich hingeguckt und gesagt, okay ich sehe folgende Probleme, die wir hier in diesem Code haben, lass mal kleinere Funktionen machen. Jede Funktion macht eine Funktion, das hat er alles gemacht. Jede Funktion sollte jetzt nur noch eine Aufgabe haben und die aber vernünftig machen. Wir ziehen ein Debugging Layer rein, dass wir auf der JavaScript Konsole aussagekräftigere Fehlermeldung bekommen und sowas. Sowas. So und danach lief es dann wieder. Also nach dem Refactoring musste man schon nochmal so zwei, drei Iterationen machen, um es wieder komplett lauffähig zu kriegen, aber es ging. So und von da ab, das waren dann so Stunde fünf und sechs, konnte man mit dem ganzen wieder arbeiten. Wahrscheinlich auch nur bis zu einem Punkt X, aber am Ende, ich kann es jetzt mal auf die, genau, gehen wir auf das GitHub-Repository, was da jetzt ist, oder ja, das ist die, ja genau, Bis hin zu der Readme, die er mir geschrieben hat, ist also jetzt der komplette Code hier in dem GitHub-Repo komplett von ChetGPT4 geschrieben.

Tim Pritlove
2:12:48
Ralf Stockmann
2:12:53
Tim Pritlove
2:14:16
Ralf Stockmann
2:14:20
Tim Pritlove
2:14:22
Ralf Stockmann
2:14:22
Tim Pritlove
2:15:01
Ralf Stockmann
2:15:04
Tim Pritlove
2:15:18
Ralf Stockmann
2:15:21
Tim Pritlove
2:15:56
Ralf Stockmann
2:16:01
Tim Pritlove
2:16:45
Ralf Stockmann
2:16:50
Tim Pritlove
2:16:52
Ralf Stockmann
2:16:53
Tim Pritlove
2:17:25
Ralf Stockmann
2:17:33
Tim Pritlove
2:17:35
Ralf Stockmann
2:18:40
roddi
2:19:38
Ralf Stockmann
2:19:39
Tim Pritlove
2:19:41
Ralf Stockmann
2:19:56
roddi
2:20:07
Tim Pritlove
2:20:09
Ralf Stockmann
2:20:33
roddi
2:21:18
Ralf Stockmann
2:21:21
Oliver Zeigermann
2:21:26
Tim Pritlove
2:21:37
Oliver Zeigermann
2:21:44

Also es gibt für uns Entwickler gibt es zumindest bei den klassischen Entwicklungsumgebungen gibt es ein GPT 4 basiertes Tool oder es ist demnächst GPT basiert, dass das kann das heißt du gibst dir eine komplette Code Basis und sagst jetzt. Wieso sieht der Code so aus und dann sagt das Ding ja das sieht so aus weil oder ist das guter Code oder kannst du mir den bitte heil machen oder kannst du den bitte refactoren und was ist das hab ich gemacht an unterschiedlichen Stellen dachte so okay das war's jetzt, das ist wirklich gut aber du musst also das was uns Entwicklern immer noch bleibt oder vielleicht auch uns Menschen ist die Intention und die Motivation das heißt, warum baust du das eigentlich was baust du da. Warum hast du den Eindruck, dass es nicht gut ist? Das können wir und da bin ich auch sicher, dass wir das nach wie vor besser können als hier in der Maschine, aber quasi der Bereich, wo ich das Gefühl habe, die Maschine kann das besser als ich, wird immer größer und das ist schon erschreckend und muss man damit umgehen und das, was du jetzt gezeigt hast, hat mich auch beeindruckt, fand ich ziemlich cool, also Hut ab. Eine Sache dazu und zwar zu dem Kontext also du hast ja selbst gesagt das Ding hat irgendwann nur noch so und so viel Zeilen davon im Blick gehabt, gbd4 kann 8000 Token, aber das sind halt Tokens das ist nicht der original Quelltext. Genau das ist sowas wie, das ist aber immer noch doppelt so lang wie das was davor da war das heißt ein Token ist ein bisschen weniger als ein Wort und ich glaube eine Buchseite hat 200 Wörter typischerweise und 8000 Token vielleicht, Bisschen weniger als ein Wort, das heißt das sind schon sowas wie 40 Seiten, hab ich mal kurz im Kopf durchgerechnet, stimmt das überhaupt, glaube ich ja und es gibt auch ne Version von GPT 4 die kann 32.000, tucken, also das hier, das was Tim hier versucht hat, dass er das zusammenfassen lässt, war zum scheitern verurteilt, hab ich aber vorhin nicht gesagt, weil das einfach zu lang ist, das heißt, der ist gar nicht in der Lage durch dieses komplette Dokument durchzugehen, weil ich davon ausgehe, dass es wirklich länger ist, also das was hier letztes mal gesprochen wurde oder? 4 Stunden gequatsche, das ist doch länger als Buch oder?

Tim Pritlove
2:23:49
Oliver Zeigermann
2:23:50
Tim Pritlove
2:24:36
Ralf Stockmann
2:24:57
Tim Pritlove
2:24:57

Aber er ist zwar gescheitert, aber er ist gar nicht so schlecht gescheitert. Also nochmal kurz zu zusammenfassen, das Ergebnis von diesem, liest doch mal das Transkript durch hier. Leider ist das Transkript des Podcasts sehr umfangreich und es war in der gegebenen Zeit nicht möglich alle Details zu erfassen und entsprechend mit dem größten Redeanteil zu bestimmen. Hier ist jedoch eine Zusammenfassung der bisher erfassten Informationen. Der Podcast Freak Show 265 Mansplaining as a Service konzentriert sich auf die Diskussion rund um künstliche Intelligenz und maschinelles Lernen. Maschinelles Lernen. Insbesondere im Zusammenhang mit Chat-GPT in der Diskussion geht es unter anderem um die Angst vor künstlicher Intelligenz und die möglichen negativen Auswirkungen von Priming in KI Systemen, die zu unerwünschten Stereotypen und Vorurteilen führen können. Sie sprechen auch über die vielfältigen Einsatzmöglichkeiten von KI Technologien und ihre potenziellen Missbrauchsrisiken. Beispielsweise sprechen sie über die Möglichkeit, dass KI generierte Bilder in Berichten von Amnesty International verwendet werden, um die Privatsphäre der betroffenen Personen zu schützen. Ein weiterer Diskussionspunkt ist die Idee des Auto-GPT, dass ein System beschrieben wird, das Chat-GPT verwendet und automatisch steuert. Es wird diskutiert, wie Auto-GPT Prompts erzeugen kann, um Gedanken zu entwickeln und zu kritisieren. Zuletzt sprechen sie über die Zukunft von Chat-GPT und LLMs als eine Art Betriebssystem und die Entwicklung von Anwendungen, die darauf aufbauen. Sie diskutieren auch über die Möglichkeiten von Plugins für Chat-GPT, die eine Interaktion mit verschiedenen Diensten ermöglichen könnten.

Ralf Stockmann
2:26:25
Tim Pritlove
2:26:26
Ralf Stockmann
2:26:27
Tim Pritlove
2:26:31
roddi
2:27:12
Ralf Stockmann
2:27:23

Es kommt im Chat noch die gute Frage, ob jetzt dieses Beispiel mit der Masterwall, ob das jetzt nur so prompten konnte, weil ich selber programmiere. Das ist ein guter Punkt. Die Antwort ist ein klares Jein, das thematisiere ich da auch in dem kleinen Blogposting, was ich da geschrieben hab, kann man sich noch mal im Detail durchlesen. Ich würde sagen es gab jetzt so wie es gelaufen ist drei oder vier Stellen wo man als Nichtprogrammierer aufgehört hätte, weil man da kein Land mehr gesehen hätte. Also dieses Refactoring beispielsweise, hätte ich das nicht gemacht wäre das zu Ende gewesen an der Stelle. So und dafür brauchst du schon ein bisschen Hintergrund, so okay, warum läuft mir das hier gerade aus der Kurve? Und es gab zwei, drei andere Stellen, die ähnlich waren. Aber, Pointe, ich kann kein JavaScript. So das heißt also die Sprache die hier hauptsächlich verwendet wurde, derer bin ich nicht mächtig. Also ich kann das lesen und ich verstehe im wesentlichen was da so passiert, ja aber die ganze Syntax oder jetzt auch. Was da in irgendwie Libraries eingebunden ist und sowas ist ja kein blassen Schimmer. Aber klar, die ganzen Gefahren haben wir gerade eben schon, ja Security und Skalierung und so weiter. So jeder Depp in Anführungszeichen wie ich kann plötzlich jetzt hier irgendein Java-Skriptcode raushauen, stellt den auch noch auf GitHub und promotet ihn, hier nutzt es für eure Konferenz. Ja, ohne dass ich mich halt mal ernsthaft mit Security und Skalierung beschäftigt habe. Ist ja eigentlich auch ein scheiß Move, ne? Und ich reflektiere es zumindest vielleicht noch so ein bisschen. So, was ist mit den tausend anderen Skriptkiddies da draußen?

roddi
2:29:36
Ralf Stockmann
2:29:45
Oliver Zeigermann
2:29:56
roddi
2:30:34
Oliver Zeigermann
2:30:47
Ralf Stockmann
2:31:02
Oliver Zeigermann
2:31:04
Ralf Stockmann
2:31:19
Tim Pritlove
2:31:56
roddi
2:32:01
Tim Pritlove
2:32:02

Ich stelle ich mal eine ganz steile These auf. Also vielleicht entdecken wir auch gerade, dass das Verständnis von gut programmieren können ein bisschen falsch austariert ist in der heutigen Welt, weil das sozusagen primär ein Attribut ist, was auf erfahrene Coder, die schon sehr viel Code geschrieben haben und ihre Programmiersprachen sehr gut kennen, im Wesentlichen angewendet wird. Und das auch nicht zu Unrecht. Ganz klar. Das zeigt die letzte Zeit. Allerdings ist es mir nun auch schon sehr oft passiert, dass ich halt auf solche Leute treffe, denen versuche irgendwie eine Problemdomäne zu beschreiben und die checken's halt einfach nicht. Und ihre Ansätze sind so mechanisiert und so sehr von den Werkzeugen, die sie da die ganze Zeit benutzen geprägt, so eine geradezu technokratische Herangehensweise, dass sie auf der einen Seite entweder die eigentliche Zielsetzung nicht verstehen oder wenn sie das verstehen dann bei der Umsetzung einfach immer wieder von den Notwendigkeiten des Programmierens ausgehen und nicht so sehr von den Notwendigkeiten der Anwendung. Und wofür das eigentlich gedacht ist und wohin es sich vielleicht auch nochmal entwickeln kann. Wenn halt Programmieren, was ja im Prinzip nichts anderes bedeutet als der Maschine sagen was sie zu tun hat, so entkoppelt es von Code. Und da sind wir noch nicht, jetzt lassen wir Code schreiben, aber das Programmieren selber kann ja dann auch nochmal sehr viel higher level werden, also das was wir heute als Hochsprache verstehen ist ja immer noch relativ kompliziert.

Oliver Zeigermann
2:33:48
Tim Pritlove
2:34:14
Ralf Stockmann
2:34:48
roddi
2:35:35
Tim Pritlove
2:35:44
roddi
2:35:52
Ralf Stockmann
2:35:56
Tim Pritlove
2:35:58
Oliver Zeigermann
2:36:08
Tim Pritlove
2:36:09
roddi
2:36:11
Tim Pritlove
2:36:16
roddi
2:36:52
Tim Pritlove
2:36:55

Genau, so das heißt da ist halt wieder Apples World Wide Developers Konferenz und ich erwähne das natürlich jetzt deshalb, weil die Gerüchtelage sich mittlerweile so dermaßen konkretisiert und verdichtet, dass man jetzt, dass man sich das schon fast nicht mehr wegwünschen kann. Also das ist zumindest so der Eindruck, den ich habe und ja worüber reden wir natürlich über das Projekt. Was auch immer das sein wird, also was glaube ich derzeit relativ klar ist, es gibt ein neues Betriebssystem, ich zitiere jetzt mal nur die Gerüchtelage, was ich gehört habe, ja, XR-OS oder auch Reality-OS, die sich halt mit, das sich offensichtlich mit XR beschäftigt und XR ist ja so der neue Sammelbegriff für AR, VR und was war das andere A? Naja, halt diese ganzen Realitätsverzerrungen, also Virtual Reality und Augmented Reality zusammengefasst ist halt Extended Reality und das ist so das super Buzzword mit dem man versucht jetzt diese beiden Technologien unter einen Hut zu stecken, die haben ja auch viel miteinander zu tun, weil sie eben sehr viel mit 3D Visualisierung zu tun haben und eben auch den Betrachten, Dieser 3D Visualisierung entweder eben vermischt mit der Umgebung, also Augmented Reality, oder eben komplett eigene Welten, die dann erstmal entkoppelt sind von der normalen Realität, also die Virtual Reality. So naja und das Ding verfolgt mich ja nun schon seit Jahrzehnten und hast du mal geguckt, wann haben wir darüber gequatsch reift, du warst ja hier mal zu Gast und da haben wir das Thema ja schon mal aufgegriffen und uns auch drüber trefflich gestritten und du meintest ja das wäre ja jetzt irgendwie überhaupt totally overdue und das würde ja jetzt morgen Einzug halten und die Welt revolutionieren und pipapo. Und ich muss sagen, wann auch immer ich auf so VR-Brillen gestoßen bin, bisher habe ich mich immer gefragt, äh, why? Ja, die, Fähren...

roddi
2:39:06
Tim Pritlove
2:39:11
roddi
2:39:35
Ralf Stockmann
2:39:38
Tim Pritlove
2:39:41
Ralf Stockmann
2:39:46
Tim Pritlove
2:39:53
Ralf Stockmann
2:39:58
Tim Pritlove
2:40:04
roddi
2:40:16
Tim Pritlove
2:40:20
roddi
2:40:58
Tim Pritlove
2:41:02
roddi
2:41:09
Tim Pritlove
2:41:21

Ja.

roddi
2:41:22
Ralf Stockmann
2:42:36
Tim Pritlove
2:43:46
Ralf Stockmann
2:43:53
Tim Pritlove
2:44:42
Ralf Stockmann
2:44:45
Tim Pritlove
2:44:49

Ich schweb ja nicht, ich sitz ja nach wie vor auf meinem Sofa und ich hab nur so eine komische Brille auf und die Auflösung ist scheiße und ich weiß ja auch was ich da tue. Klar ist das ganz nett, aber das kann ich mir auch auf meinem großen Curve Bildschirm anschauen, das gibt mir genauso viel Information. Also da ist diese Brille einfach nicht erforderlich. Und ich meine, ich hab seit drei Jahren oder so bin ich jetzt mit meinen Augen so weit, dass ich halt so normal lesen ohne Lesebrille ist halt einfach schwierig. Das heißt ich hab jetzt auch immer so ein Teil dabei und es nervt. Es ist halt einfach irgendwie aufsetzen, absetzen, aufsetzen, absetzen. Ich mach das hier schon seit Stunden, sind wir hier am Podcasten, die ganze Zeit muss ich Brille auf, gucke auf den Bildschirm, dann wieder kein Bock, Brille runter und so weiter. Also es nervt einfach. Wenn ich mir jetzt vorstelle, so eine Brille ist jetzt auch noch der Gateway zu meinem Computer-Content und ich müsste das jetzt auch noch irgendwie mit reinbringen, bitte, was ist denn das für ein Leben? Das will ich einfach nicht. Ich will mir natürlich die ganze Zeit was über mein Gesicht rüberziehen. Und dann bin ich ja auch vollkommen entkoppelt von der Außenwelt. So jetzt ist natürlich die Frage, kann ich diese Brille in irgendeiner Form, wenn es XR ist, dann ist da auch AR drin, AR heißt Augmented Reality, das heißt da ist eine Kamera drin oder was und dann gucke ich, laufe ich so rum wie mit so einem Google Glass Hole irgendwie im Modus.

Ralf Stockmann
2:46:05
Tim Pritlove
2:46:09
Ralf Stockmann
2:46:10
Oliver Zeigermann
2:46:20
Tim Pritlove
2:46:24
Ralf Stockmann
2:47:17
Tim Pritlove
2:47:21
roddi
2:47:36
Tim Pritlove
2:48:17
roddi
2:48:18
Tim Pritlove
2:49:34
roddi
2:49:44
Tim Pritlove
2:50:01
roddi
2:50:18
Tim Pritlove
2:50:32
roddi
2:50:34
Tim Pritlove
2:50:35
roddi
2:51:35
Tim Pritlove
2:51:46
roddi
2:51:52
Tim Pritlove
2:52:01
Ralf Stockmann
2:52:05
Tim Pritlove
2:52:48
Oliver Zeigermann
2:52:49
Tim Pritlove
2:52:57
Oliver Zeigermann
2:53:01
Tim Pritlove
2:53:06
roddi
2:54:13
Tim Pritlove
2:54:20
roddi
2:54:26
Tim Pritlove
2:54:28
Ralf Stockmann
2:54:36
roddi
2:54:48
Tim Pritlove
2:54:50
Ralf Stockmann
2:54:54
roddi
2:55:16
Ralf Stockmann
2:55:24
Tim Pritlove
2:55:53
roddi
2:56:39
Tim Pritlove
2:56:44
Ralf Stockmann
2:57:04
Tim Pritlove
2:57:16
Ralf Stockmann
2:57:17
roddi
2:57:19
Tim Pritlove
2:57:26
Ralf Stockmann
2:57:36
roddi
2:57:39
Tim Pritlove
2:57:57
roddi
2:57:58
Tim Pritlove
2:58:08
Ralf Stockmann
2:58:13
Tim Pritlove
2:58:23
roddi
2:58:50
Tim Pritlove
2:59:33
roddi
2:59:34
Tim Pritlove
2:59:56
Oliver Zeigermann
3:01:24
Tim Pritlove
3:01:33
Oliver Zeigermann
3:01:34
Tim Pritlove
3:02:39
roddi
3:02:44
Oliver Zeigermann
3:02:50
roddi
3:02:53
Tim Pritlove
3:03:06
Oliver Zeigermann
3:03:23
roddi
3:03:29
Tim Pritlove
3:03:37
Oliver Zeigermann
3:03:47
Tim Pritlove
3:03:48
roddi
3:03:49
Tim Pritlove
3:04:02
roddi
3:04:09
Oliver Zeigermann
3:04:20
Tim Pritlove
3:04:36
Oliver Zeigermann
3:04:37
Tim Pritlove
3:04:41
Oliver Zeigermann
3:04:44
Tim Pritlove
3:04:58
Oliver Zeigermann
3:05:04
Ralf Stockmann
3:05:09
Tim Pritlove
3:05:13
Oliver Zeigermann
3:05:18
Tim Pritlove
3:05:20
Oliver Zeigermann
3:05:22
Tim Pritlove
3:05:25
Oliver Zeigermann
3:05:32
Tim Pritlove
3:05:35
Oliver Zeigermann
3:05:40
roddi
3:05:42
Tim Pritlove
3:06:00
roddi
3:06:05
Tim Pritlove
3:06:08
roddi
3:06:16
Ralf Stockmann
3:06:35
Tim Pritlove
3:06:39
Ralf Stockmann
3:06:43
Oliver Zeigermann
3:06:45
Tim Pritlove
3:06:56
Oliver Zeigermann
3:06:59
Ralf Stockmann
3:07:02
Tim Pritlove
3:07:04
Oliver Zeigermann
3:07:05
roddi
3:07:08
Ralf Stockmann
3:07:12
Tim Pritlove
3:07:15
Oliver Zeigermann
3:07:30
Tim Pritlove
3:07:39
roddi
3:07:43
Tim Pritlove
3:07:45
roddi
3:08:03
Tim Pritlove
3:08:04
Ralf Stockmann
3:08:21
Tim Pritlove
3:08:48
Ralf Stockmann
3:08:49
Tim Pritlove
3:08:57
Ralf Stockmann
3:09:00
Tim Pritlove
3:09:08
Ralf Stockmann
3:09:14
roddi
3:09:17
Oliver Zeigermann
3:09:22
Ralf Stockmann
3:09:24
Tim Pritlove
3:09:26
roddi
3:09:33
Tim Pritlove
3:09:41

Vor allem, das ist mir alles von der falschen Seite her gedacht. Das ist so dieses, oh mein Gott, wir müssen jetzt dieses Produkt bauen. Jetzt müssen wir tierisch drüber nachdenken, wofür könnten wir das vielleicht gebrauchen? So funktioniert das nicht. Man muss es von der anderen Seite aufziehen. Was ist eigentlich das Problem? Und welches Gerät könnte hier Abhilfe schaffen? Telefon war so klar. Mehr Bums ist definitiv ein Punkt, aber lässt sich jetzt auch nicht so, also kannst ja mal chatty bitty fragen, wie sich mehr Bums so konzeptionell in Hardware manifestiert. Ich sag den Abscheid. Genau. Und das, alle anderen Produkte von Apple, also Laptops sowieso klar. So, ne. Dann iPhone war halt klar, Telefon ist sowieso da, will man immer dabei haben, man will immer kommunizieren. Das war zum Zeitpunkt, als das iPhone geboren wurde, waren Mobilfunktelefone durch. So, das wollte jeder haben, jeder wird immer eins dabei haben, das war klar. Und natürlich will man aber auch irgendwie Information at your fingertips haben, das war einfach eine ganz klare Geschichte und wir sehen ja, was alles in diesem Telefon sich abspielt. Die Uhr als Satellit des Telefons und als Erleichterung des Handlings des Telefons durch Notifications und so weiter hat sich auch wunderbar etabliert plus diese ganze Fitness-Story, ich meine das wusste Apple vielleicht am Anfang auch nicht so ganz klar, Welche dieser Achsen am Ende greifen werden, aber zumindest hatten sie mehrere und zwei davon haben irgendwie verfangen, so. Und welches Produkt habe ich noch vergessen? Apple TV, darüber kann man jetzt diskutieren, aber generell sind natürlich solche Transitionen zu Internet für Fernsehgucken durchaus auch erfolgreich und ich würde sogar sagen da ist auch noch eine Story zu erzählen. Was haben sie jetzt gerade gekauft? Welche Sports League? Apple hat doch jetzt irgendeine große... Oder Spaceball oder was war das? Ich glaube es war Baseball. Spaceball, ne die haben jetzt... Vielleicht bönigst du dich, vielleicht weißt du es der Chat, ich glaube es war Baseball und Sportübertragungen sind halt sehr data rich so, das heißt du schaust dir das an und du hast Scoreboards und pipapo und das heißt du hast nicht nur den Videostream sondern du hast halt so eine kombinierte Geschichte und ähnlich entwickelt es sich auch bei Fußball mit mehreren Screens und pipapo und Statistiken.

Ralf Stockmann
3:12:09
roddi
3:12:54
Ralf Stockmann
3:12:55
roddi
3:12:56
Ralf Stockmann
3:12:58
roddi
3:13:29
Tim Pritlove
3:14:55
roddi
3:15:46
Tim Pritlove
3:16:06
roddi
3:16:12
Tim Pritlove
3:16:49
Ralf Stockmann
3:16:58
roddi
3:17:02
Tim Pritlove
3:17:07
roddi
3:17:14
Tim Pritlove
3:17:16
roddi
3:17:46
Oliver Zeigermann
3:17:48
roddi
3:17:50
Tim Pritlove