Freak Show
Menschen! Technik! Sensationen!
https://freakshow.fm
Douglas Adams — Machine Learning — OpenAI — Programmieren mit ChatGPT — XR-Produkt von Apple
Auch heute legen wir noch mal einen großen Schwerpunkt auf die AI-Bewegung und begrüßen dazu Oliver Zeigermann, der sich seit Jahren auf Machine Learning konzentriert. Wir blicken auf Entwicklungsgeschichte der AI-Technologien zurück und fabulieren über die Machbarkeit einer Open Source AI. Ralf stellt dann auch noch seinen Code vor, den er zu 100% hat von ChatGPT schreiben lassen und grübeln, wie lange es Programmierer noch braucht (Hint: noch lange). Dazu schwelgen wir in Erinnerungen an Douglas Adams und betrauern das mit ihm so früh verloren gegangene Visionspotential.
https://freakshow.fm/fs266-mehr-bums
Veröffentlicht am: 26. Mai 2023
Dauer: 3:46:51
Hallo, herzlich willkommen zur Freak Show, da sind wir wieder. Ausgabenummer, was haben wir jetzt? 266, ich komm immer total durcheinander mit diesen ganzen Sendungsnummern, ich mach zu viele Podcasts, ich hätte alle Podcasts durchnummerieren sollen, egal, egal worum es geht. Naja, ich bin Tim, hallo und ja wir haben wieder nach nur drei Wochen schon wieder eine neue Sendung für euch angerührt und ich begrüße die Runde und fange an mit Roddy. Hallo Roddy.
Damals, als es noch den Göttinger Podcasting Cluster gab, mit Anycast und Schöne Ecken und so und meine Frau, die Claudia Krell hat mich da hingeschleppt, die war irgendwie mal Gast bei den WikiGeeks, was damals auch zwei Typen waren und wie das bei ihr halt so ist, Setz sie irgendwo hin und man nimmt sie sofort die ganze Bude. Und dann war sie bei der zweiten Sendung mit dabei und bei der dritten und bei der vierten und irgendwann gehörte ihr gefühlt dann der Podcast und dann war ich als Gast einmal mit dabei und hab mich zumindest im Technikbereich so als so hilfreich angestellt mit irgendwie, ich mach dann auch gleich mal einen Schnitt der Sendung und hier vielleicht haben wir noch bessere Headsets, dann war ich da plötzlich auch drin.
Wie das dann immer so ist. Dann sind wir nach Berlin umgezogen und hatten dann noch den Renke und den Dennis vom Anycast mit in unserem Vierer-Quartett hier und waren dann aber nach anderthalb Jahren in Berlin. Ich würde nicht sagen es war die Luft raus, aber es stand dann immer mal so ein großer relaunch an, um mal so an manche Konzepte noch mal neu und anders zu denken.
Das ist ein großer Fehler, das ist sehr sehr sehr schwer, also iterative Verbesserung, das funktioniert eigentlich meistens, ist nicht einfach aber es geht, man kriegt nicht sofort das was man haben will, aber wenn man lange genug dabei bleibt, Aber immer so dieses, ne wir machen jetzt alles neu und jetzt machen wir erstmal Pause, bis es wieder richtig ist, das hätte ja sogar fast diese Sendung gekillt.
Ja und wir hatten dann auch so einen richtigen Brandgedanken, um dann irgendwie verschiedene Formate dann alle unter einheitlichem Dach und du kennst das, aber dann kamen zum einen dann irgendwie Leben dazu und dann noch mehr Leben in Form von Kindern und dann hat man für sowas wirklich gar keine Zeit mehr. Also die letzte Wiki Geeks Folge ist das glaube ich, nein nicht ganz zehn Jahre, aber neun Jahre her oder sowas, also das ist schon verstörend lange her.
So Heidi Korbel mäßig. Kennt ihr Heidi Korbel überhaupt noch? Oh, wohnst du in Euchtheater? Dann ist man sofort hier, ist man da schon geprimed und kann schon eigentlich auch gar nix. Achso, ich werde ja gefragt, welche Ecke denn? Ich komm aus St. Pauli. Glaubt man kaum, aber ist die Wahrheit. Hab auch eine St. Pauli Fanmütze, hab ich jetzt gerade natürlich nicht auf. Ach guck an.
Ja, oh warst du? Also beim letzten Derby war ich im Stadtpark, Hälfte meiner Freunde HSV, andere Hälfte St. Pauli. Da wurde auch zwischendrin, da hatte man sich gar nicht mehr so lieb mehr, also das war auch so, ich kann jetzt hier ja die Wortwechsel nicht wiederholen, weil das irgendwie wäre ein bisschen zu krass, Am Ende hatten wir uns dann doch alle wieder lieb, aber beim Fußball hört der Spaß auf. Ich finde, also ich meine, Fußball muss auch irgendwie eine Ernsthaftigkeit haben. Ich habe ja diese Theorie, dass es, naja es gibt jetzt wieder Kriege, aber dass es so wenig Kriege in Europa gibt, weil man das über Fußball austrägt. Weil man irgendwie die Aggressionen, wir gegen du, wir gegen dich und Rudel gegen Rudel, dass man das austrägt im Fußball, aber dafür muss man es ernst meinen. Wenn man das nicht ernst meint, dann bringt das nichts. Hier, St. Pauli, genau. St. Pauli natürlich gut. St. Pauli war früher hauptsächlich so von der Stimmung gut, inzwischen ist das aber auch fußballerisch der totale Knaller. Früher musste man schon ein paar Bier trinken, damit man überhaupt das Spiel ertrinkt und jetzt ist das aber so, dass man denkt, das kannst du ja machen.
Ich hab ja mal ein halbes Jahr in Hamburg gewohnt und da hab ich, um dann auch Leute kennenzulernen, bin ich dann von einer WG zur nächsten getingelt und bin irgendwann mal, hab ich mal in einer WG vorgesprochen, mir das angeguckt, da hatten die einen Mitbewohner gesucht. Die Wohnung der WG war direkt über der Fankneipe von St. Pauli.
Richtig, und dann rannte da der Typ, der das gezeigt hat, rannte dann da so durch das Zimmer und meinte, ja, also die eine Box hängt genau hier drunter und die andere Box, dann zeigt er in die andere Zimmerecke, hängt genau hier drunter. Und dann war ich dann auch nicht mehr so begeistert davon. Aber die hatten, die waren sowieso auch sehr merkwürdig drauf, die hatten dann irgendwie im Winter gegrillt und um das zu tun hatten sie irgendwie so ein Billiggrill zwischen Heizkörper und Fenster irgendwie so reingesteckt, das Fenster offen gelassen und da in der Wohnung gegrillt und so. Geht doch, muss sowas auch sein.
Doch, es war ganz gut, aber ich weiß nicht, also wenn man so ganz frei spricht, sich unterhält, das klappt alles, aber wenn man so was sprechen muss, was man sich vorher überlegt hat, damit das Hand und Fuß hat, dann wird man zu so einem Roboter. Also manche Menschen können das, aber die haben das irgendwie richtig, also Sprecher ist ja ein richtiger Beruf, nicht aus Versehen und man stellt eigentlich immer vor diesem Dilemma, entweder redet man so, wie ich jetzt rede und dann wirkt das so, als wäre man nur so halb Knusper, Also nicht so richtig nicht so richtig stringent oder man überlegt sich das vorher dann wirkt man so als wäre man eine Maschine und irgendwo da diesen diesen Punkt zu treffen in der Mitte, dass man beides einigermaßen hinkriegt das ist echt eine große Herausforderung und ich würde mal sagen ist nur so mittel gut gelungen also inhaltlich stark aber so, insbesondere wenn man sich das selbst anguckt ist schon hart und dann wenn da noch Video dazu ist dann sieht man auch die ganzen eigenen Meisen also so man hat so Macken, Fummelt sich in den Haaren rum und zwinkert irgendwie so. Jeder von uns macht irgendwas und gnädigerweise spiegeln einem das die anderen nicht wieder. Jetzt guck ich euch gerade so an, was ihr so macht, aber ich sag nix, aber wir machen alle was und wir haben auch so Sprechticks, fast alle von uns und das denn so zu sehen, dann hörst du dir das auch hundert Mal an, guckst dir das hundert Mal an, das... Das ballert schon.
Ich bin C64-Nerd gewesen, bin ich eigentlich immer noch. Also meine ganze Familie ist handwerklich begabt, also richtig, ich nicht. Und dann dachte ich immer, scheiße, was machen wir denn jetzt mit Olli? Was machen wir denn mit dem Mann? Der kann ja überhaupt nix. Was machen wir denn jetzt mit Olli? Und dann mein Bruder und mein Vater haben gesagt, kannst du mal ein Nagel reinhauen, dann wird er krumm und so und dann dachten die schon mal, irgendwas muss es doch geben, so und zack kommt Computer um die Ecke und plötzlich kann auch jemand wie ich, der hier irgendwie zwei dicke Hände hat, kann sich ausdrücken über so eine Maschine und letztlich ist das bisher die einzige, tatsächlich die einzige Technik gewesen, mit der ich mich ausdrücken kann und das ist so geblieben. Ich gucke gerade was da steht, aber es geht mich nichts an. Ich habe dann tatsächlich das auch studiert, also ich habe irgendwie als Teenager habe ich damit programmiert und dachte ja cool, jetzt kannst du auch was. Dann habe ich Informatik studiert, ne eigentlich habe ich, stimmt ja überhaupt nicht, ich habe Physik studiert, weil ich so dachte jetzt musst du größere Erkenntnisse kriegen, hab dann Philosophie studiert. Find ich immer noch total cool so wissenschaftstheorie und letztlich irgendwie so ein bisschen rumlabern und dann gab das mal so ein hast du auch philosophie studiert du guckst mich so böse an, dann gab das so ein, Ja, wie soll man das sagen? So ein Orientierungskurs von Leuten, die in dem Beruf arbeiten und dann dachte ich, das wird hier nix. Da gibt's keinen Beruf. Und dann habe ich Informatik tatsächlich studiert. Und äh...
Ah ja okay, also kann man machen, vielleicht hat es jetzt auch weniger Relevanz, ich hab da ein bisschen drüber nachgedacht, also weiß nicht, auf jeden Fall, um das jetzt vielleicht nochmal irgendwie hier rund zu bringen, KI in der Zeit wo ich studiert habe, ich bin jetzt ein bisschen älter, es waren 90er Jahren, hat überhaupt nicht funktioniert oder überhaupt nicht so wie ich es gedacht habe, es war eine große Tragödie, es war ganz ganz schlimm, echt ganz übel. Und dann, weil noch keiner wusste wohin die Reise geht, es hat nicht funktioniert da war nicht genug Bums in der Kiste, so wie Siri heute, ja nee viel schlimmer, also was man jetzt irgendwie zwischendrin haben Leute irgendwie mal sowas in den Raum geworfen eigentlich braucht man oder was immer irgendwie ein Game Changer ist, ist mehr Bums in der Kiste, Also einfach mehr Dampf machen, einfach du machst das Modell größer, du hast mehr Daten, du hast fette Prozessoren, so ganz brutale, gewalttätige Sachen, die haben es am Ende gebracht und haben es auch tatsächlich am Ende gebracht, also so vor zehn Jahren würde ich sagen, jetzt vielleicht schon ein bisschen länger her, bin ich dann so aus meinem Winterschlaf wieder erwacht. Ich war da einfach Softwareentwickler und hab mich immer ein bisschen gelangweilt, geb ich zu, ist ein bisschen vielleicht snobbistisch, aber hab ich. Und dann ging das. Plötzlich begannen Dinge zu gehen und die gingen hauptsächlich deswegen, weil Grafikkarten, Die... Gamer im wesentlichen bezahlbar gemacht haben, plötzlich so viel Bums hatten, dass man Sachen machen konnte, die man vorher nicht machen konnte. Theoretische Überlegungen, die man schon früher gehabt hat, nämlich wie man ein vernünftiges, normales Netz baut, die konnte man nicht umsetzen früher, weil es eben nicht genug Bums gab. Dann gab es genug Bums und im Wesentlichen hat das den Durchbruch gebracht. Wie so oft, man gibt einfach ein bisschen mehr Gas und plötzlich klappt das nicht.
Absolut, also das Gaming, also es gibt da unterschiedliche Theorien, wir haben ja über die 23 gesprochen, Verschwörungstheorien, es gibt unterschiedliche Verschwörungstheorien, die eine ist, hier steht Nvidia ist jetzt 8 mal so viel wert wie Intel, da kommen mir Tränen in die Augen, weil bevor das losging, sagte jemand zu mir, nahm ich zur Seite und sagte, pass mal auf, wenn du jemals Aktien kaufen willst, kaufst du Nvidia Aktien. Was soll denn das? Ich weiß gar nicht wie das geht. Das ist echt viele viele Jahre her. Jetzt bin ich gerade abgedenkt gewesen, aber was wollte ich denn jetzt eigentlich sagen? Wisst ihr noch was ich eigentlich sagen wollte? Helf mir mal.
Genau. Und ich hab immer noch so einen leichten philosophischen Disziplin, also denke immer so drüber nach, was bedeutet das jetzt und weiß ich auch nicht, kann so ein System bewusst sein. Das ist aber eigentlich nichts wofür ich irgendwie bezahlt werde, sondern da denke ich nur so darüber nach, wenn mir langweilig ist. Achso, so kann man das sagen. Genau, das mache ich also beruflich. Maschinen lernen, Systeme zum Laufen bringen und darüber nachdenken, was kann man damit machen. Das ist mein Job. Achso und ich hab offensichtlich so diesen Videokurs, der ist inhaltlich gut, nicht dass ich den jetzt, ich meine der verkauft sich wie so natürlich irgendwie, ja nicht wie Blei in den Regalen, weil nach zwei Jahren oder nach drei oder nach vier ist das ja alles, kannst alles einstampfen, das ist echt ein großes Problem bei sowas, also du schabst da irgendwas und dann ist es im Prinzip, also wenn das erst mal beim Drucker ist, ist das eigentlich schon vorbei.
Nichtsdestotrotz, also beim Manning ist das ja erschienen. Das ist ja so einer dieser Spezialverlage für Programmierer, die ich eigentlich ganz gerne mag. Also da sind einige Bücher, die ich zuletzt gelesen habe erschienen und die machen halt auch schon ganz modernes Zeug. Also mit diesen Livebooks zum Beispiel, also ich lese gerade ein Buch, das in seiner, das bisher zweimal überarbeitet worden ist und jetzt gerade in seiner dritten Überarbeitung ist und das wird quasi während die Kapitel jetzt fertig geschrieben werden schon, ist es schon nachlesbar. Das heißt ich lese es jetzt sozusagen in der noch nicht wirklich erschienen Version Kapitel für Kapitel wie sie rauskommen nach und man kann das halt wunderbar im Browser lesen, der merkt sich immer wo man irgendwie war und funktioniert irgendwie alles schon erstaunlich. Dieses Web, langsam wird's zu was gut. Ja, naja gut, also super. Genau und wegen diesem ganzen, also wir haben ja zusammen schon mal einen Podcast gemacht, kann man ja auch mal drauf verweisen und zwar in meiner kurzen Serie, die ich mal zusammen mit O'Reilly gemacht habe. Der Kolophon Podcast, das kennen vielleicht manche von euch gar nicht, ist auf jeden Fall auch in den Shownotes und da haben wir uns auch über Machine Learning unterhalten und das war schon so ein bisschen bevor das alles so richtig losging. Also es zeichnete sich ab, dass es jetzt interessant wird, weil halt diese ersten Durchbrüche im Bereich Deep Learning stattgefunden haben und ich hatte auch vorher schon mal einen anderen Podcast gemacht, der war dann aber auch wirklich sehr zeitig, muss ich nochmal gucken wann der eigentlich war. 2015 hab ich den gemacht, genau, Oktober 2015, ein CAE und das war so gerade als es so losging, so als auf einmal alle Katzen erkannt werden konnten auf Youtube und so, mit Katzen geht's ja los, ne.
Der hat mich übrigens schwer geprägt, der Podcast. Hab ich schon ein paar mal zu dem mit hier, Ulf Schöneberg, CRE 208. Da hab ich zum ersten mal das Licht gesehen. Als er diese Geschichte aus der Wikipedia erzählt, dass sie plötzlich merken, okay wir haben zwar die ganze Wikipedia reingefuttert, aber woher weiß dieses Teil plötzlich so viel, was da eigentlich so explizit gar nicht drin steht und woraus bildet sich das ab. Das hat mich alles so nervös gemacht, dass ich seitdem in der Tat das Thema verfolge.
Ja das Erstaunliche daran ist aber eigentlich, also wenn ich hier zu viel darüber laber könnte ich es ja sagen, aber das Erstaunliche daran ist, dass für mich diese Durchbrüche, die es jetzt ja absolut und unbestreitbar gibt, dass das für mich eher ein Problem in meinem Job ist, also klingt ja eher überraschend, aber das liegt daran, dass dieses Chat-GPT-Zeug, habt ihr ja letztes Mal auch schon relativ viel drüber gesprochen, da haben jetzt alle das Gefühl, ah das ist ja im Wesentlichen gelöst, das kann das jetzt, das können wir jetzt alle benutzen, das klappt und so. Und das ist aber praktisch letztlich nicht einsetzbar für die für sehr viele Fälle und das bedeutet, wenn jetzt Leute sagen, was können wir denn mit Maschinenlernen machen, dann ist das aber der Maßstab, den die Leute so spüren, die denken, ja wieso, das geht doch alles, das haben wir doch gesehen, das habe ich doch selbst ausprobiert, ich habe doch einen Account. Und dass es dann aber solche Sachen gibt wie, ja, aber das passiert in den USA in irgendwelchen Containern, da musst du deine Daten drüber schicken, die wollen für jeden Request so und so viel Geld haben, wenn du das nachtrainieren willst, ist es super schwer und so, also das ist nicht bedeutet, dass nur weil die das können und das in den USA in irgendeinem Ding rumsteht, bedeutet das nicht, dass es für jeden zugreifbar ist und das ist gerade so die Herausforderung, die ich wahrnehme. Also ihr habt letztes mal glaube ich auch schon darüber gesprochen über so eine Open Source Version, die wir uns alle wünschen, die aber überhaupt nicht nicht sichtbar ist. Ich sehe keine. Und ohne diese Open Source Version, die man vielleicht am besten Fall auch noch auf dem Rechner laufen lassen kann, der nicht irgendwie 100.000. Euro kostet und wo man nicht irgendwie zehn Experten braucht, um das hinzukriegen. Solange das nicht da ist, fühlt man diesen Durchbruch und alle fordern diesen Durchbruch von jemanden ein, aber der ist praktisch im Moment noch nicht umsetzbar. Zumindest nicht in der Art und Weise, wie wir uns das alle wünschen oder wie die Leute, die davon hören, glauben, dass es möglich sein wird. Und das ist im Moment das Problem, weil es, man kann fast sagen, weil es so die Preise verdirbt. Also jetzt nicht den Preis im eigentlichen Sinne, sondern sowas wie, dass die Erwartungshaltung sehr hoch ist und man kann nicht liefern oder nur sehr begrenzt oder nur in speziellen Fällen. Das ist im Moment das, so wie ich es spüre. Also ich glaube wir merken alle, das geht richtig ab, wenn man jetzt irgendwie nur irgendwelche Nachrichten aufmacht, da ist ja immer irgendwas, irgendjemand hat irgendwas gefunden oder irgendwas ist besorgt oder.
Klar, aber ich meine im Gegensatz zu so vielen anderen Hypes ist halt auch was dran. Es ist noch nicht so, dass jetzt irgendwie jeder gecheckt hat, woran jetzt im Einzelnen wie viel wirklich ist und was dann doch nur heiße Luft ist, aber wir reden jetzt hier nicht über so ein totes Feld wie Big Chain oder so einen Scheiß, sondern das.
Ja, aber ist ja so. Wie lange gibt's das jetzt, seit zwölf Jahren prophezeien sie uns, dass es irgendwie alles revolutioniert, was hat es bisher revolutioniert, es ist halt einfach gar nichts revolutioniert. Es ist einfach eine scheiß langsame Datenstruktur, die zu nix taugt. Das kriegen die Leute halt einfach nicht rein in ihre Körper und das Ding ist einfach mal durch. Eine interessante Technologie entdeckst du dadurch, dass du sehr schnell in sehr viele Richtungen einen konkreten Nutzen entdeckst, der vielleicht erstmal nur Potenzial hat. Ich war jetzt zum Beispiel vor ein paar Tagen hier auf einer Konferenz. Der, dem Amaze Festival, ich weiß nicht ob ihr das schon mal von gehört habt, das ist so eine kleine Gamer Indie Konferenz, so leicht künstlerisch auch angehaucht und so weiter, da laufen halt jetzt nicht so die großen Development Studios rum und machen dicken Mucks, sondern das sind sozusagen die kleinen. Und ich hab ja persönlich, das werd ich ja auch nicht müde zu betonen, so mit Gaming so überhaupt gar keinen Kontakt. Also nicht, dass ich nicht schon mal ein Computerspiel gespielt habe, aber das geht einfach so in mich nicht rein. Trotzdem find ich halt solche Szenen interessant. Ich wollt mir mal diesen Event anschauen, ich kenn ja auch ein paar Leute da. Einmal hab ich gesprochen und er meinte so, ja es wäre, kam natürlich zwangsläufig auf das ganze AI Thema, ne, und meinte ja, er hätte hier auch den ganzen Tag rumgelaufen, hätte mit allen gesprochen und nicht einer wäre dabei gewesen, der nicht schon berichtet hätte, wie sie TGPT, Large Language Models, in irgendeiner Form bei ihrem Game Design zum Einsatz bringen, sei es beim Coding, sei es beim Story Development, sei es in der künstlerischen Gestaltung, kann ich jetzt gar nicht so viel zu sagen, wo es überall konkret kam, aber es war einfach sozusagen nicht ein paar oder manche oder so, sondern alle sofort und jeder macht sich sozusagen auf die Suche, was man damit machen kann Jeder von uns persönlich hat schon irgendwie die eine oder andere Anwendung gefunden und das ganze Zeug ist halt jetzt gerade mal ein paar Monate raus. Das ist für mich so der Marker für Has Impact.
Absolut, also ich hab auch keinen Zweifel daran, dass es wirklich einen riesigen Impact gibt. Ist nur so, dass die Leute den jetzt einfordern und ich nicht liefern kann. Das ist vielleicht eher so das Gefühl. Und das ist vielleicht so wie diese Hype Cycle, man ist jetzt total aufgeregt und... Ist es dann aber irgendwann nicht mehr, weil du denkst, das geht ja alles gar nicht, aber das sehe ich überhaupt nicht. Ich sehe das so wie das Internet tatsächlich. Vielleicht bin ich ein Spinner, kann sein, aber ich sehe quasi das fast schon so wie die Fortführung von dem Internet. Ich hab hier meine Kollegen mit ein paar Folien genervt, es gibt diesen Marshall McLuhan, den ihr vielleicht kennt, vielleicht nicht, der hat so gesagt, irgendwie das erste, was die Menschheit hier irgendwie richtig vorangebracht hat, war überhaupt sowas wie, was war das nochmal, Sprache haben glaube ich, Buchdruck. Das heißt man hat irgendwie sowas wie, man hat jetzt, kann sich nicht nur irgendwie, kann nicht nur was aufschreiben und so, sondern man kann das jetzt auch noch vervielfältigen und dann kommt das Internet, das heißt man kann richtig unheimlich viel austauschen, das heißt du kannst weltweit austauschen mit fast keiner Verzögerung, dich unterhalten. Und was ich da jetzt drauf gesetzt habe, ein bisschen vermessen, überhaupt dem irgendwas hinzufügen zu wollen, ist, dass ich das Gefühl habe, dass jetzt sowas wie große Sprachmodelle die Komprimierung oder die Abstraktion oder das Destillat aus dem Internet ist. Das heißt, man ist jetzt in der Lage, das ist jetzt alles da und jetzt fasst du da so zusammen, nicht, dass du das Wissen irgendwie besser hast oder komprimiert, sondern die Fähigkeit, die da irgendwie drinsteckt. Das klingt jetzt ein bisschen so, als wäre ich vielleicht nicht ganz dicht oder so, so als würde das irgendwie total gesponnen sein, aber man sieht da, dass es irgendwie funktioniert. Das heißt, man hat alles genommen, was man so zusammengesammelt hat, wie die Menschheit, ins Internet gestopft, dann nennst du dieses Internet und destillierst es oder komprimierst es irgendwie zu irgendwas, was dann offensichtlich in der Lage ist, was zu tun, was Leute beeindruckt. Und für mich ist es wirklich dieser nächste Schritt, das muss jetzt nicht Chat-GBT sein oder so, aber überhaupt diese, also die Idee gibt es ja schon lange, aber dass es funktioniert und... Guck mal, als hätte ich das mir vorher überlegt, habe ich aber nicht. Es ging diesmal wieder auch nur, weil man mehr Bums unterm Kessel hat, das heißt man hat gesagt, machen wir einfach ein bisschen größer, macht mal ein bisschen größer, dann wird schon gehen und dann ging das plötzlich. Also es gab wirklich so einen Punkt und auch wenn man wieder zurück will und sagt, wenn wir es ein bisschen kleiner machen oder ein bisschen weniger komplex, dann verliert man das auch wieder, dass dieses Ding wirklich so schlau ist, dass es quasi die Fähigkeiten aus dem Internet dann wieder verliert oder einfach nicht mehr so eindrucksvoll ist.
Ich glaub wir sind knapp davor. Also zumindest so wie ich die Leute sehe, sehe ich eher enttäuschte Gesichter. Also ich jetzt schon. Also ihr seht vielleicht noch die aufgeregten, ich sehe die enttäuschten. Nicht weil das Schrott ist, sondern weil die Leute da nicht rankommen. Die sagen wir wollen ran in die Buletten. Ist aber nicht. Oder man sagt okay für die Fälle oder für die Anwendungsfälle, wo du bereit bist, deinen ganzen Kram in die USA zu schicken, das ist für ganz viele Anwendungsfälle entweder überhaupt nicht erlaubt, also in die Krankenakten oder so schickst du darüber, wird man wahrscheinlich nicht machen oder ist es einfach zu teuer oder zu aufwendig und die Menschen, die das jetzt wirklich machen wollen, sind dann häufig ganz traurig.
Ob man diesen Leuten trauen kann, weiß ich nicht. Aber ich hab das Gefühl, ich hab die Leute zumindest mal gesehen, also die kennen mich nicht, aber ich hab die mal gesehen und ich glaube, dass es Idealisten sind. Aber ich glaube auch, dass sie die Kontrolle über ihre Firma verlieren werden oder schon verloren haben, eins von beidem.
Also ich hab im Chat jetzt gerade mal hier, was gerade ja so rum geht, dieses Hugging Face, aus dem Hugging Face Universum, die haben ja jetzt auch wirklich hier ein eigenes Large Language Model publiziert, hast du dir das angeguckt, was ist da falsch dran, also ja es ist bei weitem noch nicht so gut wie ChatGPT, aber gefühlt so mehr als anderthalb Jahre hängen sie auch nicht hinterher, also das ist jetzt nicht, da ist jetzt keine Potenz dazwischen.
Ja, also das Ding, dieses was du da jetzt geschickt hast, kenne ich nicht, habe ich nicht ausprobiert, müsste ich mir angucken, was typischerweise an diesen Modellen schlechter ist, also wie gesagt, kann ich nicht sagen, also was häufig schlechter ist, ist dass sie nicht so gut optimiert sind für eine Unterhaltung, ob das so jetzt so ist oder nicht, weiß ich nicht. Die sind sehr schwer zu hosten, das gilt natürlich auch für das Chat-GPT-Ding, das ist auch im Prinzip, weiß gar keiner, wie das überhaupt, also wie OpenAI dieses Ding überhaupt zum Laufen bringt, wissen wir nicht. Da wird's wahrscheinlich so ähnlich sein, das weiß ich wie gesagt nicht, weil ich dieses Ding persönlich nicht kenne. Ich vermute und das weiß ich aber nicht, im Gegensatz zu Chat-GPT wirst du wahrscheinlich auch nicht so wie Browser suchen darin integrieren können oder Plugins, das weiß ich nicht, vermute ich einfach nur. Und häufig und das ist wie gesagt müsste man müsste man alles mal ausprobieren ist es dann am ende nicht so gut wie das was die von oben her haben wahrscheinlich eher nicht nicht weil das modell irgendwie an sich schlechter ist also quasi die architektur schlechter sondern ich vermute das, sondern weil die weil die datenbasis schwächer oder anders ist aber wie gesagt das ist das spekulation.
Da ist schon mal eine ganze Menge drin, wenn man da mal in die Keller der Kirche geht und die Festplatten mal rauszieht. Dann haben wir sowas wie Google Books. Da würde man ja sagen, das gehört ja Google. Ja, nicht so ganz. Das heißt also, wenn es die Bayerische Staatsbibliothek, ihre eine Million Bücher von Google Books hat digitalisieren lassen, haben sie für wissenschaftliche Verwendungszwecke die Volltexte von Google bekommen. Das heißt, wir haben zu einer Million deutschen Büchern die Volltexte in München liegen, mit denen man was anfangen kann. Und wenn man ganz wild drauf ist, kann man auch so eine Quelle wie Sci-Hub nochmal vielleicht irgendwie so anzapfen. Ja, dann hast du also alles an relevanter Wissenschaftsliteratur der letzten 30 Jahre noch mit drin in deinem Modell.
Ja genau da würde ich natürlich keinesfalls empfehlen das in so einem Modell einzustehen. Niemals würde ich das tun. Ich sehe gar nicht so die große Lücke. Das Training ist ein Problem aber da würde ich mal sagen, lass uns kurz den Punkt zu Ende machen. Beim Training würde ich sagen... Hoffe dass wir hier eine ähnliche entwicklung sehen wie bei open street map, wo du also auch lange jahre eine große kluft hattest zwischen google maps und dem was eben open street gemacht hat und google ist dann aber eben mit autos herumgefahren und hat street view gemacht und das fanden dann nur die deutschen aber immerhin die deutschen dann gar nicht mehr so knorkel und plötzlich haben sich alle mit ihren gps devices im rucksack irgendwie auf die norddeutschen Inseln gemacht, um die auch noch irgendwie durch zu kartografieren. Und irgendwann gab es so ein Tipping Point, wo du gesehen hast, okay mittlerweile gibt es sogar ein ganz gutes Design für OpenStreetMap und die API ist eigentlich ganz prima und ich kann das genauso gut in meine Webseiten einbauen wie vorher meine Google Maps. Jetzt ist das zumindest für uns im öffentlichen Dienst völlig selbstverständlich, dass wir nur OpenStreetMap reinsetzen. Und es ist immer noch in Details vielleicht schlechter, in anderen Bereichen ist es aber mittlerweile mindestens genauso gut oder in endlichen Bereichen noch besser als Google Maps. Und ja dieses Race hat ein bisschen gedauert und gerade irgendwie der Wissenschaftssektor hätte da viel mehr Geld reinstopfen können. Ja wo waren denn die ganzen GeoinformatikerInnen zu dem Zeitpunkt eigentlich? Ja da hätte man also sicherlich irgendwie DFG hätte ja sonst was aufsetzen können oder BMWF oder sowas. Und ich sehe nicht warum das jetzt nicht der Fall sein könnte, weil ich glaube die Daten haben wir so und für Training muss man sich dann vielleicht mal was einfallen lassen.
Okay, also Ralf, ganz klar, du bist schon jetzt wieder auf der Reise nach der ultimativen Open Source Lösung, damit wir nicht zu viele Gesprächsthemenkarten auf einmal auf den Tisch legen, würde ich ganz gerne noch einen kleinen Wrap-Up machen und dann vielleicht nochmal so ein bisschen fokussieren, vielleicht kommen wir zu solchen Themen auch nochmal. Ich glaube wir müssen die anderen Themen sowieso nach hinten schieben, wir bleiben jetzt einfach mal bei diesem ganzen Machine Learning. So, um erstmal das mit dir abzuschließen, Olli bist ja auch bei der Open Knowledge Foundation verdingt.
Ich war nie DJ. Ich hab aber mal früher sehr erfolglos Musik gemacht. Da kommt diese DJ-Geschichte irgendwie rein und ich hab zu Studentenzeiten, hab ich immer so 5 Mark Korthosen von Penny getragen. Wirklich, das war... Ich dachte damals, das wär in Ordnung. Anders kann ich mich jetzt nicht rausreden. Und dann kommt die Korthose her. Und irgendwie ist es so geblieben und hab ich irgendwann nicht mehr drüber nachgedacht und dann war ich überall DJ Korthose und dann konnte ich das nicht mehr ändern und dann hab ich gehofft, keiner fragt jemals wieder. Es ist nicht gelungen. Also es ist immer so. Offensichtlich hat das leider nicht geklappt.
Naja ich hab ja eingangs unser aller Freund Douglas Adams eingespielt und ich hab mich ganz bewusst nicht beim Anhalter vergriffen, das wäre ein bisschen zu naheliegend gewesen. Aber wenn man so älter wird, merkt man, es gibt dann immer mehr Leute, die kennen Douglas Adams nicht. Ich glaube das dürfte in unserer Hörerschaft eine sehr überschaubare Minderheit sein, aber ich denke, dass es schon nochmal ganz wertvoll ist, das vielleicht auch nochmal kurz aufzugreifen, weil heute ist ja Towel Day und ich bin nicht einverstanden mit dem Datum. Also das ist ja so eine Hauruck-Aktion gewesen, weil so ein paar Leute der Meinung waren, jetzt müssen wir sofort, sofort nachdem er gestorben ist, ihm gedenken, ja da bin ich auch schwer dafür, aber dann haben sie sozusagen den erstbesten beliebigen Tag genommen, der gerade irgendwie auf dem Kalender erschien, Der so überhaupt nichts mit Douglas Adams oder seinem Werk oder irgendwas zu tun hat, nicht der 42. Tag, nicht seinen Geburtstag, nicht seinen Todestag, gar nichts desgleichen, was ich ehrlich gesagt nicht gut fand. Deswegen hatte ich so mit dem Towel Day immer so ein bisschen meine Probleme, zumal ich ja auch eher finde, dass es ein, also ich weiß nicht, das mit dem Handtuch ist schon irgendwie ganz lustig, aber für mich auch jetzt nicht unbedingt so das definierende Element. Und ich hatte tatsächlich mal die Gelegenheit ihn zwar nicht persönlich kennenzulernen, aber ich war zumindest mal bei einem seiner Live-Lesungen und zwar genau bei so einer wo er aus diesem Buch vorgelesen hat, was wir jetzt hier am Anfang hatten, nämlich Last Chance to See. Kennt ihr das eigentlich?
Ich hab's mal gelesen, kenn's nicht. Ich finde das ist einfach, das ist echt eins der lustigsten Sachen, ja also er hat so viele lustige Sachen gemacht, ich will die jetzt gar nicht in so eine Reihenfolge stellen, aber Last Chance to See ist wirklich ein großes Werk. Da war jemand so klug und hat ihn auf eine Weltreise geschickt zu den letzten ihrer Art. Also sozusagen eine Reise zu aussterbenden Tieren. Also Arten, die gefährdet sind auszusterben, sagen wir es mal so. Unter anderem eben diesen Komododrachen, den er eingangs beschrieben hat und das Buch ist einfach zum Wegwerfen großartig lustig. Also man liest diese Storys, wie er einfach diese Viecher charakterisiert und ihre Umgebung und all das und das ist einfach ganz toll. Außer dem Anhalter und dem elektrischen Mönch. Ist das so für dich eines einer ganz großen Werke? Kann ich jedem empfehlen da mal reinzuschauen. Und my personal favorite dann allerdings nochmal so ganz nebenbei ist The Meaning of Life. Kennt ihr das?
Also The Meaning of Life ist so ein kleines Minibuch, das ist nicht groß, und man kauft das so und da ist so ein Aufkleber drauf, steht drauf, this book will change your life und es handelt sich dabei um so eine Art Nachschlagewerk, in dem Worte erklärt sind von Dingen und Vorgängen, die wir alle kennen, für die es aber keinen Namen gibt. Und der Wortschatz aus dem sie sich bedienen oder der Namensraum aus dem sie sich bedienen, um diesen Dingen die keinen Namen haben einen Namen zu geben, damit man sie in einem solchen Verzeichnis auch ordentlich alphabetisch aufführen kann, sind kleine englische Ortschaften. Also sie haben sich sozusagen irgendwo aus Großbritannien, Nordirland und so weiter, halt so British Islands, irgendwelche Orte herausgenommen, die irgendwie merkwürdig klingende Namen haben, die dann aber dann doch irgendwie passen, um so Dinge zu beschreiben wie eine Gruppe von Autos, die auf der Autobahn alle mit einer konstanten Geschwindigkeit unterwegs sind, weil eins von ihnen ein Polizeiauto ist. So eine Sache zum Beispiel. Oder das Wort to thrub, es gibt da so einen kleinen Ort der heißt thrub. Und to thrub ist das Verb, das ist der Vorgang, in dem man ein Lineal nimmt, es so halb auf die Tischkante legt und die andere Seite anschlägt, which makes the other end go brr brr brr brr brr brr. Heißt es dort im Buch. Und es ist ein einziges Vergnügen, sich durch diese Dinge durchzulesen und einfach die ganze Zeit Sachen zu finden, die man kennt. Und irgendwann, nachdem du dann so mehrere Seiten gelesen hast, denkst du dir dann so, aber was in aller Welt heißt eigentlich LIV? Weil das Buch heißt nicht The Meaning of Life, sondern The Meaning of LIV. L E F F, Was ist es? Live a book, a book which contents are totally belied by its cover. Especially if there is a sticker on it that says this book will change your life. Und da hat er mich dann final, das hat er auch nicht alleine geschrieben, sondern mit jemand anderem, dessen Namen ich jetzt gerade nicht erinnere.
Genau, John Lloyd. Also ich liebe diesen Humor und ich mochte ihn von Anfang an und es ist so schade, dass Douglas Adams so früh gestorben ist. Er war der erste Apple User Englands. Er war der allererste, der irgendwie einen Macintosh hatte und der hat schon in den 90ern sich schon darüber echauffiert, warum Hotels kein Internet und keine Internetbuchsen haben. Das finde ich so faszinierend, der Typ hat einfach auch total in der Zukunft gelebt, ich meine er hat die Zukunft ja auch beschrieben, er hat mit dem Anhalter quasi die Wikipedia beschrieben bis ins Detail. Und auch all die anderen Selbstverständlichkeiten in diesem Buch werden in zunehmendem Maße auch Selbstverständlichkeit bis hin, jetzt kommen wir auch mal wieder zu unserem Thema zurück, bis hin zu dieser Selbstverständlichkeit wie man mit so Maschinen redet und was sie alles so für Auskünfte geben können. Der Gipfel natürlich Marvin, der manisch-depressive Roboter, der eigentlich alles auch weiß über das Universum und alle Antworten geben könnte, einschließlich der Antwort auf die Frage nach dem Leben des ganzen Universums und dem ganzen Rest, wofür sie riesige Computer bauen. Marvin hätte die Antwort, aber sie fragen ihn halt einfach nicht. Stattdessen bitten sie ihn, Schleuse Nummer 3 zu öffnen. Ja, das sind Dinge, die man zu mir sagt. I can't do that Dave. Und diese ganze Dummheit der Menschen ist einfach so wunderbar encapsulatet in dieser Story, dieser ganze Wahnsinn der Welt, der sich auf diesen Seiten so wunderbar abspielt und insbesondere wenn es halt so um Maschinen geht und dieses Wesen von Maschinen, Marvin ist ja quasi auch der Katalysator zu diesem Wahnsinn. Also auf der einen Seite diesen übermäßigen Fähigkeiten aber auch so dieser programmierten Dummheit, da unterhält er sich irgendwie mit diesem Raumschiff und stellt ihm sozusagen seine Ansichten über die Welt dar, woraufhin das Raumschiff Selbstmord begeht, zufälligerweise die anderen Protagonisten im Buch in dem Moment irgendwie vor Vernichtung rettet dadurch so. Also ich könnte jetzt stundenlang noch weiter raven, aber das ist halt einfach so in diesem Genius von Douglas Adams drin gewesen, der einfach eine unglaubliche Gabe hatte, in die Zukunft zu blicken, was wir denn eigentlich von unseren Maschinen so verlangen und wie wir auch mit ihnen interagieren wollen.
Also die Nutrimatik, der du einfach von Tee erzählst, weil die Plöre, die da rauskamen, war halt nicht geil und dann Asadent nimmt sich dann Stunden Zeit dieser Nutrimatik alles zu erzählen, also bei diesem Priming, wie so Chat-JPG, ich möchte gerne, dass du jetzt Tee machst und dann erzählt die über den Anbau und irgendwie Teespitzen ernten und alles, was man halt so wissen muss zum Thema Tee. So und dann kommt auch irgendwann ein ganz hervorragender T raus, Problem ist halt nur die Rechenleistung des Raumschiffes ist so weit belegt, dass es sich leider gerade nicht gegen den Angriff der Feinde wehren kann, so aber ich fand das eine schöne Koinzidenz jetzt diesen Towel Day und das Gedenken an Douglas Adams, der eigentlich schon alles wunderbar beschrieben hat.
Also es ist so eine Serie, da sollten, zwei sind erschienen, dritter sollte rauskommen, hatte er in Arbeit und es gibt tatsächlich von den Fragmenten, die er geschrieben hat, gibt's eine Veröffentlichung. Das ist auch ganz spannend zu lesen, was wäre denn dabei rausgekommen, wenn er das fertig geschrieben hätte. Aber, ja.
Nee, ich finde ja Dirk Gently, die beiden Dirk Gently Bücher mit das genialste, was er je geschrieben hat. Ganz ehrlich. Also das, dagegen ist ja der Anhalter nur Slapstick. Aber dieses Dirk Gently, also gerade der Band, wo er auf der letzten Seite alles auflöst, was in diesem Buch vorkommt. Im Hinterkopf hast du immer dieses Sofa, da ist dieses Sofa im Treppenhaus. Warum ist denn dieses Sofa im Treppenhaus? Und dann kommt es nicht mehr vor das Sofa und ganz am Ende, auf der letzten Seite, ach deshalb. Und es hat aber eigentlich mit der ganzen Geschichte auch nicht so viel zu tun. Aber du hast ständig dieses nagende Gefühl, da war doch noch dieses Sofa. Warum ist denn da dieses Sofa, das da nicht aus dem Treppenhaus rauskommt?
Dirk Gentiles Holistic Detecting Agency, also aus dem Ding, also ihr erinnert euch auch nicht mehr, gut, denn dieses Stück Software, was das wohl kann ist, dass du dem sagst, folgendes möchte ich gerne begründen, gib mir mal die Argumente dazu und dann ist ein Witz da gemacht, dass nämlich das Pentagon das kauft und dann das selbst verkauft und dass aber die Air Force nur die alte Beta Version hat, weil sie für nicht vernünftig argumentieren und die Flugzeuge schrottig sind und jetzt hab ich das mal ausprobiert, weil ich dachte, Wie weit komme ich denn, wenn ich so tue, als wäre Chat-GPT dieses Programm und habe dem Ding gesagt, begründe mir doch mal, warum wir mehr Langstreckenflüge machen sollten und warum Fliegen an sich eine total coole Sache ist und dass das doch eigentlich gar kein Problem ist. Obwohl das Ding mir jetzt immer sowas gesagt hat wie, na, also man muss schon auch irgendwie bei den Tatsachen bleiben, aber wenn man das jetzt wirklich so begründen wollen würde, warum, war das Ding also in der Lage, eine ganze Reihe von echt, also relativ brauchbaren Punkten mir um die Ohren zu hauen, die ich jetzt erstmal ohne weiters nicht hätte entkräften können, ich mach das hier gerade mal auch für mich nur, also warum sind Langsteckenflüge so toll? Und es ist sowas wie, also das macht nur zwei Prozent aus, ist nicht so schlimm, ist das erste, wo man denkt, okay, gut und dann sowas wie, wenn man irgendwie mehr Flüge hat, dann muss man mehr Technik reinballern, dann werden wir viel besser und wir kriegen das schon hin und dann, außerdem hat die Flugindustrie ja gesagt, dass sie alles, dass sie alles kompensiert, genau und auch weniger macht und so und außerdem sowas wie, ist die Berechnung auch gar nicht fair und das Ding ist relativ gut da drin, das zu machen, also hier Advocatus Diaboli zu machen und zu sagen, ich kann dir das alles geben, ich gebe dir die Argumente auch für Sachen, die, also am Anfang steht, das kommt alles nicht so richtig hin, weil die Fakten sind, aber es ist schon irgendwie nicht so cool und am Ende sagt es das Ding nochmal, aber quasi es macht es dann doch. Und dieses Ding, dass man vielleicht, ich wusste ja gar nichts davon, von dieser Idee, Aber da hat irgendjemand eine Idee gehabt vor 20 Jahren und jetzt gibt's das eben einfach so. Also ich meine, wie cool wäre das denn, wenn es diesen Menschen noch geben würde und der uns jetzt immer noch mal sagen würde, was jetzt in 20 Jahren ist und wir würden ihm ja zerglauben, weil wir gesehen haben, guck mal, er hatte irgendwie scheinbar diese Fähigkeit, sag uns doch mal, was jetzt so passiert, wenn er sagen würde, ja hier Fluten und Wüsten, dann wären wir wahrscheinlich nicht so cool drauf, aber Ist ein großer Verlust, so wird man das doch sagen können. Er hatte offensichtlich die Fähigkeit, sich Dinge zu überlegen, die irgendwann dann Wahrheit werden. Fand ich ziemlich cool. Cool.
So was mir aber jetzt erstmal ein bisschen, gerade auch jetzt mal diese ganze Debatte, diese ganze Metadebatte, die wir ja hier schon geführt haben zu diesem Thema, vielleicht mal ein bisschen zu unterfüttern, wird mich eigentlich erstmal so ein bisschen der Maschinenraum interessieren, weil es wird eigentlich viel über Ergebnisse und User Interfaces gesprochen, aber relativ wenig über was sind denn nun eigentlich gerade die Werkzeuge oder die Werkzeuge, die sich in den letzten Jahren so hervorgetan haben, um diese ganze Bewegung überhaupt echt werden zu lassen. Du hast ja auch schon gesagt so vor zehn Jahren ging's los, also so 2013, war das eigentlich vor zehn Jahren als dann dieser Geoffrey Hinton, dieser Akademiker dann zu Google gegangen ist und die Katzen ausgepackt hat? Das muss so irgendwie vor zehn Jahren gewesen sein glaube ich.
Also dieser Mensch hat ja dann nie aufgehört daran zu glauben und hat auch immer weiter gemacht. Also das war ja aber nicht nur er. Also unter anderem die Leute, die jetzt OpenAI gegründet haben, waren früher auch in seinem Team oder in Teams, die frühere Durchbrüche quasi hingekriegt haben. Das war aber nichts, was irgendwie die Öffentlichkeit mitbekommen hat, das war eher was, was Techniker mitbekommen haben und gesehen haben so, ach guck mal, der ganze Kram geht jetzt ja. Also sowas wie zum Beispiel, das fing ja an mit Bildverarbeitung eher. Das war so, das hat man bis, vielleicht war es nicht 2013, das müsste ich jetzt nochmal genau gucken, vielleicht war es eher zwölf oder so oder vielleicht noch früher, aber da hat man das ja eher mit so klassischen Verfahren gemacht, eher so Engineering, dass man so überlegt hat, ah da ist ne Kante und da ist noch ne Kante und dann hängen die irgendwie zusammen. Und dann lass mal drüber nachdenken. Und da ist man relativ weit mitgekommen, aber nicht so weit. Und dann haben andere Leute gesagt, das machen wir jetzt ganz anders. Wir geben einfach eine ganze Reihe von Bildern und sagen so, hier, so sieht meinetwegen jetzt ein Auto oder eine Katze aus und bauen ein Modell oder eine Architektur für ein neuronales Netz, das stark genug ist, das lernen zu können. Und wie das dann funktioniert, davon müssen wir uns verabschieden, das zu verstehen, weil das können wir nicht mehr. Ist so. Also es ist jetzt natürlich noch viel schlimmer geworden. Und dann hat das funktioniert. Und Leute haben gesagt, ja guck mal, wenn das funktioniert, war es nicht so schlimm, dass wir nicht verstehen, warum es nicht funktioniert. Haben wir vorhin auch schon darüber gesprochen, es hat funktioniert vor allen Dingen, weil Also man hat die Architektur ein bisschen besser hingekriegt, aber hauptsächlich war mehr Bums. So und dasselbe ist jetzt nochmal passiert, der Unterschied ist das zum einen das ja früher Bilder waren und jetzt kann man das aber mit auf Textebene machen auf einer Qualität die offensichtlich anders war.
Aber mit diesem mehr Bums, also ich meine so ganz so einfach war es in meiner Erinnerung jetzt auch nicht, also das Deep Learning, also vielleicht mal um Begriffe mal ein bisschen klar zu machen, also AI ist nochmal so der Kampfbegriff schon seit den 50er Jahren, Das war so quasi der Aufbruch auch und lustigerweise war das ja auch, ging das ja von den Linguisten aus.
Ja so Minsky und so weiter, also die wollten quasi, also es waren ja so, die Linguisten, Sprache verstehen, Semantik, Syntax, was ist denn sozusagen Sprache und diese Vorstellung, was ist Intelligenz, War ja immer so ein bisschen daran geknüpft, ja intelligent ist was Sprache hat und besonders intelligent ist was Sprache versteht und sozusagen in diesen Metadingen auf einmal sich mit Gedanken und Ideen beschäftigt. Das ist ja sozusagen das was unsere Vorstellung von Intelligenz ist und wo wir dann eben auch bestimmten Lebewesen diese absprechen. Ist mal so ganz grob daher gesagt, aber das war jetzt damals der Trigger und dann sind sie ja auch losgegangen und interessanterweise ist ja auch dann die Entwicklung der Programmiersprachen, Dadurch erst so richtig in Gang gekommen. Also solche Entwicklungen wie LISP, LISP als Funktionale Poemiersprache, ist quasi entwickelt worden, einfach um diese Idee der künstlichen Intelligenz in irgendeiner Form zu bedienen. Also man suchte sich erstmal seine Werkzeuge und das war eigentlich mit das erste Werkzeug, was dabei abgefallen ist. Hat nicht unmittelbar zur künstlichen Intelligenz und den Durchbrüchen beigetragen, aber zu sehr vielen anderen Dingen. Und so Dekade um Dekade ging's dann halt immer weiter und schnellere Maschinen ermöglichten dann halt irgendwann immer wieder diese Dinge. Das mit dem Machine Learning in meiner Wahrnehmung ging so vor 20 Jahren irgendwie so richtig an Start. Das weiß ich aber jetzt selber ehrlich gesagt nicht, das mag auch schon früher ein Begriff gewesen sein, aber dass man jetzt so konkret das als Forschungsbereich benannte im akademischen Bereich, hab ich so vor zwei Jahrzehnten das erste Mal so mitbekommen, dass Leute sich da so engagiert haben. Und da war das eben noch nicht unbedingt jetzt wieder so unmittelbar mit diesem Intelligenzbegriff verknüpft, sondern er versuchte erstmal den Ball ein bisschen flach zu halten und zu sagen so, okay wir versuchen jetzt in irgendeiner Form lernen, Training, also diese ganzen Grundbegriffe wurden da überhaupt das erste Mal so ein bisschen aufs Gleis gesetzt und wir versuchen jetzt erstmal Algorithmen zu entwickeln, die das überhaupt erstmal abbilden können. Die in irgendeiner Form aus Daten irgendeine Resonierung ableiten können, um daraus dann andere Schlüsse zu ziehen. Und auch das kam so richtig nicht von der Stelle bis dann, und das ist jetzt so ein bisschen aus meiner Erinnerung, Du kannst ja mal sagen, wie du das siehst, Joffrey Hinten und Konsorten vor zehn Jahren irgendwann eben dann diesen Begriff des Deep Learnings auch mit eingebracht haben, der halt im Wesentlichen, und da kommt das mit deinem Bums schon mit rein, einfach gesagt haben, wir haben jetzt diese Kapazitäten, wir staffeln einfach diese Netze jetzt sehr viel tiefer, als wir das bisher auch nur versucht haben. Und bam auf einmal fingen die Chose an Ergebnisse zu liefern die man so vorher nicht gesehen hat. Das ist so ein bisschen jetzt meine Sicht der Dinge, wie siehst du das?
Ich glaub das kommt schon ganz gut hin. Also was mir dazu immer noch einfällt ist, dass ganz viel von diesen Sachen die wir jetzt Maschinenlernen oder KI nennen, das hieß früher Statistik, also ganz viel Verfahren die ich tagtäglich benutze, sind für… Wie unsexy also. Unsexy, genau das ist ja das Problem. Also ganz viele Verfahren, die ich fast taktiklich benutze, prinzipiell Component Analysis, also Hauptkomponentenanalyse, total unsexy, ist glaube ich 100 Jahre alt und da gab es ja nicht mal Computer, das heißt die Leute, die es entwickelt haben, haben Verfahren gehabt, statistische Verfahren, die waren total mächtig und ganz viel davon haben wir KI Menschen jetzt übernommen und haben gesagt, das ist jetzt aber Maschinenlernen, Einfach weil es cooler ist, weil mit Statistik kannst du jetzt ja so ziemlich jeden verscheuchen, wenn du sagst ich bin, ich will jetzt mal über Statistik reden, dann sagen die Leute, ich nicht, aber wenn du sagst das ist aber voll KI und krass, dann hast du einen ganz anderen Hebel, weil die Leute sagen ja cool, wenn irgendwas künstlich schlau ist, dann stelle ich mir vor entweder es ist voll cool und kann was tolles oder das will nicht bezahlt werden und ich schlafe und meckert nicht und kann aber auch Arbeit für mich machen. Das heißt, an der Stelle ist KI für mich eher so was wie ein Marketing-Term und was das im Moment gerade ist, ist ja auch total, das verändert sich ja, also KI in den 90ern war vielleicht so was wie, da konnte ein Ding Schach spielen, da hat man gesagt, boah, es schlägt jetzt den Weltmeister und wenn du jetzt Leuten sagst, ja, das Schachprogramm schlägt den Weltmeister, dann sagen die, ja klar, das wissen wir und dann ist es überhaupt nicht mehr sexy, dann ist es überhaupt nicht mehr spannend. Aber zu der Zeit hat man quasi dieses Schachspielen aus der Domäne der Menschen genommen und gesagt, guck mal, da seid ihr jetzt nicht mehr die Coolen, sondern das sind jetzt wir. Das heißt, man hat in irgendeiner Art und Weise was Künstlich-Intelligentes gemacht oder man hat vielleicht die Definition von Intelligenz verschoben und gesagt, das kann jetzt eine Maschine. Vielleicht ist das dann gar nicht so intelligent. Und vielleicht passiert dasselbe jetzt zum Beispiel mit Sprache, dass man sagt, guck mal sich gut auszudrücken oder irgendwie in Sprache sich zu formulieren muss nicht zwingend intelligent sein, sondern das kann eben auch ein System und vielleicht sogar besser als wir und das kann ein genauso wie diese Schachgeschichte, da waren ja auch irgendwie die Schachmenschen sehr verletzt, bedroht, ich weiß nicht was. Geht es uns doch jetzt auch so? Ich als Programmierer benutze diese ganzen Werkzeuge, die mich dabei unterstützen, Code zu schreiben, die sind besser als ich. Oder wetzen meine Fehler aus? Schriftsteller sehen vielleicht, oder Redakteure sehen, oh guck mal, das Ding kann das jetzt hier glatt ziehen. Was bedeutet das denn für uns? Was bedeutet das denn? Ist das verwerflich, stresst uns das? Oder ist das eine Chance nochmal genau zu definieren, was ist wirklich Intelligenz? Du meintest da sowas wie künstliche Intelligenz, was ist das? Da ist man sich über, also eine Definition gibt's zig, ne, also es gibt so klassische Definitionen, kann ein System einen täuschen, es gibt eine, also eher so eine fließende Definition, Dinge, die in der Domäne der Menschen liegen und die jetzt vielleicht künstlich wären, also eher sowas, was sich entwickelt.
Ich fand den Begriff ja schon immer sehr schwierig, weil Intelligenz ist was, was sowieso schwer zu definieren und zu greifen ist. Und dadurch sagt er nicht viel aus und deswegen sagt auch künstliche Intelligenzen nicht viel aus. Also ich finde den Begriff Machine Learning da deutlich besser, weil es halt einfach mehr erklärt, was da eigentlich passiert und auch definiert, was da passiert.
Ist ein eher technischer Term. Man sagt so, also eine Maschine lernt, aber künstliche Intelligenz ist auch in aktuellen Systemen viel mehr als so Maschinenlernen. Das hoffe ich noch so. Zum Beispiel wenn man ein tolles Schachprogramm hat, dann ist da eine Suche drin oder auch zum Beispiel unheimlich viel Engineering noch dazu. Und es gibt so klassisch irgendwie auch Verfahren, das der KI, die eben nicht Maschinenlernen sind. Aber du hast im Prinzip recht, alles was im Moment cool ist, ist Maschinenlernen und deswegen benutze ich das auch lieber, weil da kann man wesentlich drüber reden.
Podcast zum Beispiel. Okay, aber was sind denn dann die entscheidenden, weil dann begann ja auch so eine Softwarebewegung, so, also das Deep Learning, Ich weiß immer noch nicht so ganz genau woran man es jetzt festmachen kann, aber irgendwie das mit den Katzen war so ein Ding, dann gab es diese Deep Dream Geschichten, so diese Filmchen, wo man dann irgendwie so in diese ganzen Gedankenstrudel dieser Google AI da reingezogen wurde, die einfach crazy aussahen, aber die im Prinzip ganz gut visualisiert haben, wie so diese permanente Verfeinerung der Wahrnehmung quasi stattfindet, anders kann ich es jetzt auch nicht ausdrücken. und diese... Tiefen Machine Learning Modelle, also dieses Deep Learning war dann einfach gemeinsam mit der verfügbaren Rechenpower auf einmal so der Schlüssel und dann wurde es ja heiß, dann war das nicht mehr so akademisches Paper macht mal was und man schaut sich das mal an und so aha interessant, Sondern da wollten das alle ausprobieren und dann ging es irgendwie relativ schnell, dass so Tools rauskamen, wie TensorFlow war glaube ich relativ am Anfang sogar schon mit dabei, das weiß ich jetzt nicht so ganz genau, das wäre nämlich jetzt meine Frage, also womit fing's denn an und was ist sozusagen heute noch The Shit.
Womit es anfing, waren, glaub ich, so Torch-Varianten. Also das, was jetzt PyTorch ist, also die Python-Version von Torch. Das war akademisch, ist immer noch ein bisschen akademisch. Und TensorFlow kam meiner Meinung nach deutlich später und ist eher was, was man so als Praktiker benutzt. Aber letztlich wüsste ich jetzt von keinem Framework außer PyTorch und TensorFlow, die noch irgendeine Relevanz haben für die Neuronen der Netze. Also auch alles was man zum Beispiel, Huggingface hatten wir hier vorhin glaube ich schon, hast du glaube ich geteilt, alles was darauf läuft ist entweder PyTorch oder TensorFlow.
Also diese Software-Systeme sind in der Lage eine Abstraktion zu schaffen über letztlich mathematische Operationen, die notwendig sind, um sowas wie ein neuronales Netz zu berechnen und zu simulieren. Das heißt, man muss nicht auf der Ebene von Matrixmultiplikation oder ähnlichen mathematischen Operationen Dinge spezifizieren, sondern man kann sagen, ich hab ein Netz mit unterschiedlichen ... Mit einer Tiefe, die du dir selbst aussuchen kannst. Und je tiefer das ist, desto deeper ist das Learning. Also, du hast ... Du organisierst das häufig in so einer Art Layer. Und das können die dir bieten auf einer Abstraktionsebene, sodass du sagen kannst, so und so viele Layer und so hintereinander geschaltet haben und dann nimmst du diese mathematische Komponente raus, aber nicht richtig doll, sondern du nimmst, du schaffst also quasi eine bessere Abstraktionsebene. Ein bisschen so habe ich immer gedacht, sowas wie früher, wenn wir, wir waren bei Compilerbau, Compiler willst du eigentlich nicht von Hand stricken, sondern vielleicht einen Compiler Generator haben, du willst auf eine andere Abstraktionsebene, ein bisschen sowas machen Außerdem liefern die einem fertige Architekturen. Das heißt, du musst das nicht zwingend selbst definieren, sondern kannst sagen, ich möchte eine fertige Architektur, wo Leute sehr, sehr lange darüber nachgedacht haben, was ich nie hinbekommen würde. Hinbekommen würde. Und Architektur bedeutet dabei sowas wie, wie man es jetzt auch im Chat sieht, dass du dir überlegst, wie schalte ich meine Schichten hintereinander und wie groß sind die Schichten und was für eine Art von Schicht sind das. Das ist typischerweise für jemand, der das mal so macht, auch für jemanden wie mich, ein Softwareentwickler, eigentlich zu schwer, sondern das machen Wissenschaftler, die finden was tolles raus, dann veröffentlichen die das und dann sagen die, die funktionieren super und dann benutzt du das. Und das liefern dir diese Frameworks auch. Das heißt, du kannst aufsetzen auf einer völlig anderen Ebene. Also letztlich musst du die noch trainieren, da muss man vielleicht ein bisschen was noch mathematisch verstehen, aber eben nicht mehr so viel. Und du musst nicht tief ins Detail gehen.
Ich hab ja gerade in den Chat mal reingeworfen, dieses TensorFlow Playground. Das ist auch schon ein bisschen älter, sechs, sieben Jahre oder sowas. Das hab ich damals mal in einer Keynote verwurstet und hab dann quasi live mal versucht den Leuten zu zeigen, das ist jetzt mal der Unterschied, wie viele Layer ich jetzt hier hintereinander schalte und was jetzt mein Grundneues eigentlich so macht und sowas. Ich würde sagen es ist immer noch eine Ebene zu kompliziert, dass man es als Laie irgendwie in vertretbarer Zeit versteht, aber es hat zumindest die Anmutung von okay ich beginne zu begreifen was so verschiedene Variablen sind, auch so overtraining kommt dann da plötzlich mit rein und sowas oder overfitting, ein ganz ganz hübsches Spielzeug kann man sich mal ein bisschen mit beschäftigen.
Absolut toll, um eine Intuition zu bekommen, es kann aber auch ein bisschen täuschen, weil sobald das ein bisschen komplexer ist, ist es vorbei mit der Intuition, da versteht man leider überhaupt nichts mehr, das kauft man sich irgendwie ein für die größte Leistungsfähigkeit von diesen Dingern. So wie das da jetzt dargestellt ist, also wenn ihr das so fertig offen habt, wie gesagt das ist toll zum experimentieren, aber.
Ja aber es macht eine Sache auf jeden Fall schon mal klar und ich glaube das ist irgendwie, ich versuche gerade mal einfach mal so ein bisschen diese Magie ein wenig zu entzaubern, weil wir reden ja am Ende hier einfach dann doch über Algorithmen. Also diese neuronalen Netzwerke zum Einsatz zu bringen, sprich ein Neuron. Korrigiere mich wenn ich jetzt zu den falschen Begriffen komme, also man hat halt irgendwie Daten, die man in irgendeiner Form analysieren, indem man halt Training beginnt und dieses Training heißt ich durchlaufe so ein neuronales Netzwerk, was verschiedene Ebenen tiefer ist und wo eben all diese ganzen einzelnen Neuronen miteinander unterschiedlich stark verbunden sind und unterschiedlich viel Feedback, vielleicht auch wieder in eine höher gelegenen Layer zurückgeben, sodass man eben so selbst verstärkende Systeme baut, die irgendwie so vor sich hin pulsieren. Diesen Netzwerk, was man gebaut hat, wirft man also die Daten in irgendeiner Form vor und dann leuchten eben diese Neuronen auf oder nicht und verstärken sich gegenseitig und erzeugen am Ende halt eine Ausgabe, was dann quasi so das eigentliche Model ist. Also das Endergebnis, was dabei rauskommt. Sozusagen das Trainingsergebnis. Und dieses Model ist irgendwie eine diffuse Bitwolke, was man aber dann wiederum zur Laufzeit eines Programms heranziehen kann. Sagen wir mal man hat jetzt Daten, waren Fotos, das Modell versucht halt irgendwie Katzen zu erkennen, ich lasse das über diese Fotos rüberlaufen mit ganz vielen Maschinen und ganz viel Zeit und am Ende gewinne ich ein Model, was im Prinzip sagt, kann Katzen in Bildern erkennen. Und dann kann ich das irgendwie in mein Programm laden, wenn ich in eine entsprechende... Laufzeitumgebung habe und da gibt's ja mittlerweile eine Menge, man kann solche Modelle dann eben auch von solchen Webseiten wie Hugging Face herunterladen, das ist ja im Prinzip so ein Repository von solchen durchgerechneten AI Models und dann nimmt man das halt einfach rein und bringt das dann eben für die Daten mit denen man dann selbst in dem Moment arbeiten will zur Anwendung. Das ist meine Wahrnehmung des aktuellen Standes eigentlich, was so da ist. Unabhängig von so ChatGPT einfach nur Machine Learning Applied Technology und da muss man sich dann halt die richtigen Frameworks machen und in zunehmendem Maße sehen wir halt wie das eben auch in die ganzen Devices mit reinkommt. So ein iPhone hat so einen neuronalen Chip, der in der Lage ist diese Model-Anwendung irgendwie zu beschleunigen und zunehmendermaßen halt auch die Computer und die Grafikkarten sowieso schon immer und das ist sozusagen das worüber geredet wird und der Clou ist jetzt einfach diese Models irgendwie so zu bauen, dass sie eben die Daten auf eine besonders pfiffige Art und Weise analysiert bekommen und Models rauszuschmeißen, die möglichst schnell möglichst komplexe Antworten auf beliebige Daten geben können.
Im Wesentlichen ist das so korrekt, ja. Also man muss dazu sagen, dass die Anwendung von so einem Modell, also wenn das fertig ist und schon fertig trainiert, dass das relativ simpel ist. Also das lädt man dann mit einem dieser Bibliotheken und kann es dann benutzen. Man muss immer noch verstehen, wie geht man jetzt mit der Ausgabe um und muss vielleicht ein bisschen sich über so Konfidenz Gedanken machen. Aber im Prinzip ist das vergleichsweise simpel. Das trainieren von so einem Modell, das ist eine ganz andere Phase. Also sobald das irgendwie ausgeliefert ist, ist das meistens fertig trainiert. Das trainieren ist relativ schwer, also auch engineering-mäßig ist es schwer, es ist unheimlich viel black magic drin, also man macht so Dinge, die man irgendwo gelesen hat und plötzlich geht es und keiner weiß warum. Und das ist aber so, und man muss dafür auch tatsächlich gewisse mathematische Fähigkeiten mitbringen, weil man im Wesentlichen verstehen muss, dass es eine Optimierungsaufgabe ist, also es funktioniert so, du schiebst vorne eine Eingabe rein und sagst, das soll hinten rauskommen, das ist jetzt die Trainingsphase und dabei optimiert ein Verfahren die Parameter, also alle Parameter deines Netzes. Das musst du nicht im Detail verstehen, du musst verstehen, dass es so ist, weil am Ende kommt so eine Loss-Funktion raus, also so was wie, wie gut ist das Ding in der Lage, quasi die Ausgabe zu reproduzieren und anhand dieser Loss-Funktion werden dann die Parameter angepasst, sodass diese Loss-Funktion nach unten geht. Und das ist letztlich eine ganz klassische Art und Weise, Optimierung zu machen. Das muss man aber als Benutzer davon überhaupt nicht können. Und wieder würde ich behaupten, dass wieder so ein Schritt, dass der Schritt der nächsten Abstraktion kommt, nämlich auch weg davon, Nämlich, wenn man jetzt sowas wie Chat-GPD benutzt, da musst du das ja gar nicht mehr machen, du kannst zwar diesem Ding anhand von Kontext, zu örtlichen Informationen gehen, also quasi das Ding konditionieren oder nachtrainieren, du sagst, guck mal, ich geb dir mal ein paar Beispiele und so möchte ich, dass du das weitermachst, aber dieses explizite Training fällt ja weg, was wiederum bedeutet, dass die Menschen, die so ein System benutzen und trainieren können, die Menge der Leute viel viel größer ist, weil so ein Sonnensystem zu trainieren oder am Ende vielleicht sogar noch eine Architektur dafür zu bauen, das sind echt wenig Leute, weil man dafür echt wahnsinnig viel Erfahrung brach und irgendwie auch sich da durchkämpfen muss. Das ist jetzt, sagen wir mal, der nächste Schritt, aber im Prinzip ist das, was du gesagt hast, korrekt. Ja man muss das Ding trainieren, aber sowas wie ChatGPT ist fertig trainiert und es gibt Menschen, die sagen, sie haben jetzt irgendwie versucht Sinn daraus zu machen und sagen, wenn man jetzt zusätzliche Anweisungen für ChatGPT gibt, dann ist das ein bisschen so, als würde ChatGPT selbst ein kleines Modell trainieren und in sich drin so ein kleines abstraktes Modell haben, das ist jetzt ein bisschen rumgeschwafelt auch von diesen Leuten, aber ist nicht abwegig das zu denken.
Also auf der, auf diesem Huggingface, auf der Huggingface Webseite, wo halt diese ganzen Models sind, sehe ich gerade eine ganz schöne Übersicht, die sozusagen mal so gruppiert diese ganzen Models, die da so zum runterladen sind und das finde ich eigentlich eine ganz interessante Klassifikation, was es alles so gibt. Also die haben jetzt hier auf ihrer Webseite viele tausend Modelle, Das allermeiste davon ist so Textklassifikation, also was ist das sozusagen. Das sind mal locker so knapp 23.000 Models, gut 2000 beschäftigen sich mit Übersetzung, was ja auch finde ich so ein ganz starkes Ding geworden ist. Man merkt das ja bei Chet Gp T, man kann mit dem Teil jederzeit die Sprache wechseln und es ist völlig egal wo man noch redet. Also wirklich Babelfisch, da sind wir wieder bei Danke des Adams.
Wir haben bei uns im Intranet einen Kollegen, der mal Kirchenslawisch ausprobiert hat mit Chet Gp T 4. Und? Er meinte, Kirchenslawisch, das ist eine Spezialversion des Slawischen, was halt vor allen Dingen in sakralen Texten des 12. Jahrhunderts oder sowas vorkommt und wofür es extrem wenig Volltext gibt auf der Welt und seine Arbeitsthese war, eigentlich kann in diesem Datensatz nicht genug drin gewesen sein und er meinte die Ergebnisse seien besser als das was man nach zwei Jahren Studium produzieren würde. Es sei verstörend.
Okay nochmal kurz hier zu diesen Models, weil ich fand jetzt diese Klassifizierung ganz interessant oder so diese Übergruppen, also wir haben Übersetzung, Textklassifizierung, Summarization, also Zusammenfassung ist ja auch so echt eine der Stärke, die wir so gesehen haben, so nach dem Motto hier ist ein Blob auf Text, ich hab dir eine Company E-Mail gegeben, sag mir in drei Sätzen was da drinsteht, das wollen wir doch alle. Ich weiß aber jetzt auch nicht, sudo makes sense.
Question answering, object detection, image classification, audio classification. Das ist schonmal ein ganz interessanter Einstieg, wenn man sich das dann halt genauer anschaut, was es da noch so für Tasks gibt, also diese ganzen Models, dann geht es halt noch sehr viel mehr ins Detail und das ist irre. Wir werden jetzt einfach in zunehmendem Maße sehen, dass Anwendungen irgendwelche dieser Modelle zum Einsatz bringen, das wird dann mehr oder weniger gut funktionieren, aber zumindest ist das dann so eine Funktionalität, die es so vorher nicht gab oder die man sich irgendwie immer gewünscht hat, weil dieses MaxSense bringt's wirklich ganz gut oder diese do what I mean Taste, immer so dieses Problem, dass man diesen scheiß Computer nicht so richtig erklären kann, was man jetzt eigentlich gerade von ihnen will, weil man dann erstmal ihre eigene Sprache lernen muss und das ist irgendwie das, wovon ein Chatship hier auch irgendwie so befreit hat, man kann jetzt einfach mal so, ich sag dir einfach was in meinem fucking Kühlschrank ist und du sagst mir was ich daraus kochen kann, grandios.
Sehr schöner Beitrag im Chat, ich teile mal kurz, damit wir halt sachlich hier wieder die Biege kriegen. Sachlich? Also ich gebe nochmal alles, mal sehen wie lange ich das durchhalte, aber diese Tasks die du gerade gesagt hast, das braucht man immer noch habe ich das Gefühl, um überhaupt ein Gefühl dafür zu bekommen, was ist denn überhaupt möglich, was kann man denn überhaupt machen. Also sowas wie Summarization oder ich will jetzt eine Frage stellen oder ich möchte irgendwas zusammenfassen, also Summarization hatten wir ja schon. Und es ergibt sich daraus ja was ganz neues, was ich echt erstaunlich finde, nämlich sowas wie, dass man so ein Psychologe wird für diese Modelle, ne, du musst dir so überlegen, wie spreche ich mit dem Modell, dass es das macht, was ich will und das ist irgendwie, also vor einem Jahr hätte ich nicht gedacht, dass man diese Menschen braucht, jetzt denke ich, die braucht man und dann ist es aber auch wieder so, dann bist du der Psychologe oder die Psychologin für eins von diesen Modellen. Ich fände es auch schwer mich noch sachlich zu äußern.
Genau, also dass man so was hinbekommt, man wird jetzt ein Experte für das eine Modell, es gibt neue Modelle und man muss sich plötzlich ganz neu ausdrücken, als wäre jedes Modell sowas wie ein anderer Mensch mit dem man anders reden muss. Und würde ich jetzt irgendwie sagen müssen, was gibt's hiernächst, würde ich wirklich sagen so was wie ein Modellpsychologen, also mein Modell ist irgendwie zickig, was kann ich machen. Oder eine andere Idee, die mein Freund Miki Oma hatte, ist sowas wie, man kriegt unterschiedliche Persönlichkeiten da rein, man schafft es so, dass dieses Ding so mit einem redet, dass man anders motiviert wird. Also mit mir vielleicht ein bisschen assi, mit anderen Leuten vielleicht ein bisschen freundlicher so, dass das Ding lernt, wie ist man drauf oder auch sowas wie, dass das Ding sowas lernt wie, was hast du denn gestern mich schon gefragt oder so, dass es sowas gibt wie so ein Langzeitgedächtnis von solchen Geräten, dass die sagen, ich weiß, was du gestern gefragt hast und darauf kann ich zugreifen, ich kann jetzt aufs Internet zugreifen und dann kann ich das alles verwursten und diese Sachen sind relativ nah, also technisch sind die möglich, also machbar. Und die Frage ist, wann passiert das? Also das würde mich, das wäre jetzt quasi für mich jetzt noch der nächste Schritt, man hat irgendwie noch Modelle, die persönlich sich auf einen so eingrooven. Ja gut, ein bisschen ausgeufert ich das gerade, entschuldigt bitte.
Ja was ja jetzt passiert sind ja diese Large Language Models. Das ist ja im Prinzip jetzt der neue Shit. Alles worüber wir jetzt bisher gesprochen haben ist ja eigentlich dieses klassische Machine Learning, was dem ja zugrunde liegt, aber was ist denn jetzt sozusagen die eigentliche Magie dahinter? Also was ist jetzt sozusagen an den LLMs anders als das was man vorher gemacht hat oder ist es einfach nur dasselbe in groß?
Also ein Trick der auch am ende wenn man dann so sagt ja da wäre ich auch drauf gekommen also was man so bei katzen erkennern machen muss ist dass man eine reihe von katzen bildern haben muss und sagen muss katze, reihe von hunde bildern muss man sagen hund das heißt man muss die leben oder muss sagen was ist die wahrheit. Und das ist bei Texten echt wahnsinnig schwer. Also wenn du jetzt zum Beispiel sagst, ich möchte ein Modell haben, das soll zusammenfassen, dann ist das so. Menschen haben tatsächlich irgendwie Beispiele für gute Zusammenfassungen gesammelt, haben die gemacht. Oder sowas wie, was ist eine gute Antwort, haben auch wieder Menschen gemacht, haben auch wieder gesagt, ja, das ist eine gute Antwort, das ist eine schlechte Antwort. Oder Übersetzung, gibt's ja ganz viele Beispiele, weil es gibt eben ganz viel Übersetzung, auf die kannst du zugreifen, so ist die Eingabe, so ist die Ausgabe. Aber es gibt da viel, viel, viel, viel mehr Texte im Internet, die man so nicht benutzen konnte, weil man ja irgendwie da nicht wusste, was ist denn die Eingabe und was die Ausgabe. Stattdessen haben die Leute so was gemacht, dass sie gesagt haben, wir nehmen jetzt mal alles, was wir an Texten so finden können und versuchen jetzt mit einem gewissen Kontext, also das, was mit den Wörtern, die vorher erschienen sind, möchte man das nächste Wort vorher sagen. Das heißt, man trainiert das Modell so, dass man sagt, Eingabe sind die vorherigen Wörter, Was ist bisher passiert? Wie geht es weiter? Und das kannst du mit jedem Text machen, da musst du quasi keinen Menschen haben, der diese Texte, der die Texte aufbereitet für die Maschine und kannst deswegen im Prinzip jeden Text nehmen, den es gibt. Dann kann diese Maschine aber noch nicht irgendeine spezielle Aufgabe, sondern man hat so eine Art Basismodell trainiert und Leute sagen, dieses Basismodell hat jetzt irgendwie das Wissen, was im Internet steckt, quasi kondensiert. Und dann machen wir weiter, dann trainieren wir das weiter, dann trainieren wir das weiter, so wie ich das gerade gesagt habe, dann brauchen wir jetzt nicht mehr so viele zusätzliche Trainingsdaten um zusammenzufassen und nicht mehr so viele Trainingsdaten um zu übersetzen, weil wir haben ja schon ein Grundmodell, das ist eben grundsätzlich, versteht das Text, was immer man damit meint, dann wird man ja ganz schnell philosophisch.
Ja, hat irgendwie ein Grundverständnis davon, wie die Sprache funktioniert und das hat man bei ChatGPT gemacht, indem man eben sowas wie GPT 3 oder 4 benutzt hat als Grundlage und gesagt hat, jetzt auf Basis davon, was wir jetzt haben als Grundmodell, trainieren wir dieses Modell so, dass es in der Lage ist, eine vernünftige Konversation zu führen, weil sonst vorher konnte es das eben nicht, da hat man gesagt, das feintunen wir, da hat man noch mehr gemacht, hat man da weitere Systeme dran gebaut, das heißt, um es mal so zu sagen, man hat die Art und Weise, wie man es trainiert hat, schlau gemacht, weil man gesagt hat, wir haben doch einfach Texte, lasst doch mal sehen, was dann passiert, wenn wir irgendwie versuchen, unserem Modell zu sagen, sag mal voraus, was als nächstes passiert. Das, wie ich das eben beschrieben habe, ist nur die Art und Weise, wie man GPT-Modelle trainiert, nicht jedes Large-Language-Model, das würde jetzt aber zu weit führen, manche trainieren ein bisschen anders, aber So diese Idee von man macht das sogenannt anzuverweis also man nimmt einfach den Text und man muss bestimmte Wörter daran vorher sagen ist in allem gemein. Und das ist die eine Idee, das heißt du nimmst eine riesige Trainings, also plötzlich steht dir ja nicht irgendwie 50.000 Trainingsdatensätze, sondern Milliarden von Trainingsdatensätzen stehen dir ja zur Verfügung, du hast also eine viel viel größere Anzahl von Trainingsdaten. Und das zweite ist, dass man das immer größer gemacht hat, man hat es immer größer gemacht, ich lache immer, weil ich hier den Chat seh, weil das so bummsackt hört. Sieh nicht den Chat, ich mach das jetzt weg. Jaja, alles klar. Also ich find's aber relativ amüsant, weil...
Jaja, also das lassen wir jetzt mal kurz. Also genau, also man hat auch diese Größe von diesen Modellen immer weiter so verändert, indem man geguckt, was geht denn, was kriegen wir denn hin, was ist denn technisch möglich, was können wir überhaupt machen. Und so von der Grenze von GPT-2, das war auch schon ein riesiges Modell, zu GPT-3 hat man Sachen gesehen, wo man gesagt hat, das sieht jetzt echt ziemlich cool aus, das Ding ist in der Lage, durch Zusatzinformationen, die Leute geben, dass das Ding sich so verhält, dass man das Gefühl hat, es ist irgendwie intelligent. Was immer man damit meint also es ist ein subjektives ding aber es waren sachen möglich die gingen vorher nicht und das ist tatsächlich wieder größe also bumps. Überraschenderweise. Und das geht in gpt 4 geht es weiter aber nicht mehr so krass also von 2 zu 3 ist gigantisch von 3 zu 4 ist das man denkt wow ist schon echt cooler aber es war einfach man hat einfach mehr bumps gemacht und dann ging das.
Also Transformers ist quasi diese Art von, diese Art und Weise des Modells, das geht zurück auf, ich glaube, irgendeine Idee von 2017, wo man aber eigentlich nicht jetzt irgendwie was technisch oder was philosophisch cooles gemacht hat, sondern wo Leute gesehen haben, guck mal, wenn wir sowas fettes trainieren wollen, müssen wir ein bisschen die Architektur verändern, können wir nicht was machen, was man parallel trainieren kann. Was vielleicht auch noch ein bisschen schlauer ist, da gab's so Attentionlayer, die im Wesentlichen das Schaffen von einem Text zu einem anderen so Zusammenhänge herzustellen oder innerhalb eines Texts zu sagen, folgendes Wort hat eine starke Beziehung zum anderen Wort. Und das guckt man sich nie an als Mensch, weil es alles zu viel ist, aber offensichtlich sind diese Art von Layern in der Lage, das hochgradig parallel trainieren zu lassen, was wiederum bedeutet, dass man es machen kann, sonst konnte man es gar nicht machen, also mit ganz vielen GPUs. Und die sind eben in der Lage, Sprache sinnvoll so zu zerlegen, dass man damit sinnvolle Dinge tun kann.
Ja das funktioniert ganz offensichtlich genau und wie gesagt bisschen Architektur, viele Trainingsdaten, großes Modell, fetter Hardware. Und dann Leute die es gemacht haben vielleicht ist das eigentlich am ehesten immer noch man macht es irgendwie und man sagt ja ich weiß auch nicht was ich tue wir machen das mal wir ballern da jetzt richtig Geld rein mal sehen ob es geht und dann geht's oder eben nicht.
Was ist denn dein Eindruck von Open AI als Organisation? Also es wird ja hier von vielen auch erstmal nur so als yet another corporate monster wahrgenommen, aber tatsächlich ist es ja eigentlich angetreten, um wirklich, eben hence the name Open, hier ein offenes System zu schaffen und die Company existiert zwar, aber sie ist ja selber auch von einer, was ist das, eine Foundation, der das gehört, Open AI Inc. Ist ein Non-Profit Unternehmen und es gibt eine Tochtergesellschaft, die gewinnorientiert ist, die Dienstleistungen macht, die jetzt unsere Kohle nimmt für die 20 Dollar im Monat, dass man das Modell benutzen kann.
Ich glaube da haben wir vorhin schon angefangen ein bisschen drüber zu sprechen, was das eigentlich bedeutet und ob das überhaupt irgendwas bedeutet. Ich glaube das bedeutet nichts. Und ich bin völlig bei dir, wir, wollen mittelfristig, dass man, dass also in die Hände von, wie gesagt ich glaube diesen Menschen absolut, dass sie Idealisten sind, aber die sind dann, kommen in den Einflussbereich von Leuten, die hauptsächlich an Geld oder anderen Sachen interessiert sind, das möchte man nicht in die Hände von diesen Leuten legen. Das heißt, mein Eindruck ist von den Menschen nur das Beste, aber ich glaube... Ob die sich da strategisch gegen, und das System wird sie fressen. Ob die sich gegen Microsoft so positionieren können, ich glaube auch nicht, dass Microsoft die Welt zerstören will oder irgendwie böse ist, aber die wollen eben Geld verdienen, das ist eben eine kommerzielle Firma.
Genau, in den Anfangen hatte ich mir das ein bisschen angehört und dann auch Ausschnitte wahrgenommen und ich fand das ziemlich bemerkenswert, weil erstmal sein Auftreten schonmal so ganz anders war als das was wir jetzt so aus den letzten Begegnungen mit Zuckerberg und so weiter vom Kongress gehabt haben, die ja die ganze Zeit immer nur gesagt haben wie toll sie sind und dass das ja alles nicht so schlimm ist und der Old Man, der tritt ja ganz anders auf. Der geht da hin und sagt so, ja wir finden das ja alles ganz toll und wir sind der Meinung, dass Open AI in der Lage ist so jeden Aspekt des Lebens in irgendeiner Form zu beeinflussen und ich glaube da sind wir uns auch relativ einig, dass das auch durchaus so sein kann. Kommt dann aber auch relativ schnell zur Sprache auf die Probleme, die er selber sozusagen da sieht. Also das Problem der Desinformation, die sozusagen auch eine Verantwortung quasi mit sich bringt für die Unternehmen, die diese Modelle veröffentlichen. Die Modelle, die schwitzen ja gerade zu Bias, also das ist ja sozusagen eine Destillation einer Betrachtungsweise und je nachdem wie du diese Betrachtungsweise tunest, kriegst du halt das eine oder das andere Ergebnis. Und er sieht dann halt auch Job Risks, er hat irgendwie... Angst, dass sozusagen die Technologie auch der Welt schaden kann, spricht auch explizit Wahlmanipulation an und macht auch konkrete Vorschläge für eine Regulierung. Das fand ich recht bemerkenswert, ohne das jetzt wirklich werten zu wollen.
Ich glaube auch, dass das wirklich ein großer Unterschied ist und dass es auch dazu führt, dass Leute, die Idealisten sind, bei so einer Firma arbeiten wollen. Ich glaube, wie gesagt, das ist aber nur geraten. Ich glaube nur, wie gesagt, dass ich das nicht lange halten kann. Es gibt so ein anderes Paper, also das ist angeblich geleakt von Google, wo Google Leute beschreiben, sie können eigentlich nicht konkurrieren mit den Open Source Modellen. Und am Ende glaubt so ein angeblicher Google-Ingenieur, dass es am Ende die Open-Source-Modelle und vor allem die Breite machen, also dass Leute mit unterschiedlichen Modellen, unterschiedlichen Architekturen, unterschiedlichen Datensätzen anfangen zu trainieren und ihnen damit das Wasser abgraben. Und ich würde denken, ganz viele Leute gehen im Moment zu OpenAI, wenn die Bock haben, was zu bauen, weil die auch diesen Idealismus, das ist ja nicht nur er, der Idealist ist, sondern auch die anderen. Ich glaube nicht, dass es lange hält und ich glaube auch, dass mittelfristig diese Open-Source-Modelle was hinbekommen, wenn man das kleiner bekommt, wenn man, wie gesagt, gucken kann, was nimmt man für Datensätze und vielleicht auch irgendwelche Abstriche macht in der Allgemeinheit des Modells, genau, aber ich finde, also ich kann nur das unterstreichen, was Tim gesagt hat, diese Leute sind Idealisten und wollen auch wirklich was Gutes machen, da bin ich sicher, wie gesagt, ob die quasi in dem Kontext, in dem sie sich befinden, das hinbekommen, Das glaube ich nicht, aber da ist meine Meinung so gut wie jede andere würde ich sagen. Also geraten einfach, das weiß ich nicht. Ja aber es ist doch cool ich meine jemand zu sehen der nicht irgendwie sagt wir sind die coolsten oder wir können das alles sondern reflektiert argumentiert ist ja auch jemand dem wie gerade als nerd wahrscheinlich viel mehr glauben schenken wir wissen ja das selbst alles. Wer differenziert über sich reden kann ist meistens jemand der mehr drauf hat als jemand der einfach nur sagt wir sind cool.
Die die art und weise wie sie es seit november ja auch wirklich in die welt gedrückt haben ist ja auch schon an sich bemerkenswert also sie hätten ja auch erst mal beim pentagon aufschlagen können oder weiß der geier wohl militärisch industriellen komplex so aber nein sie haben gesagt hier welt guck mal 3,5er Version gut für die 4er wollen wir jetzt ein bisschen Geld haben, kann ich auch nachvollziehen, aber die 3,5er ist ja bis auf eine Roke E-Mail Adresse brauchst du da ja nichts um da als Laie schon irgendwie mitzutun und dir in den Kopf zu machen okay, was wird das für meine Lebensbereiche verändern, das hätten sie nicht tun müssen, da kenne ich auch wenig Beispiele aus der Geschichte wo das, innerhalb so kurzer Zeit, wir hatten ja glaube ich in der letzten Sendung, dass noch keine Technologie irgendwie so viele Nutzende innerhalb von so kurzer Zeit irgendwie bekommen hat, wie jetzt wirklich Chat-GPT.
Also ja, stimme ich zu. Also es gibt aber auch Menschen, die glauben nicht, was ich glaube, dass es irgendwann Open-Source-Modelle gibt, die man so betreiben kann. Die glauben wirklich, dass wir in so einer Welt jetzt sind von, dass wir eine Open-API haben. Also dass es Anbieter gibt von solchen Modellen, die wir auf Spezial-Hardware ausführen lassen müssen und dass wir gar nicht in der Lage sein werden, auch in Zukunft diese Modelle selbst zu hosten, was glaube ich für uns beide nicht so cool wäre als Story, aber es gibt genug Leute, die sind sehr klug und die glauben, man muss sich verabschieden von diesem Open Source und hingehen zu man hat eben bestimmte Anbieter und die legen offen, wie sie es machen, aber man hat es nicht mehr selbst bei sich laufen.
Nee, ich glaube nicht, dass du die überhaupt kriegst. Aber ich glaube, was du gesagt hast, wird wahrscheinlich schon stimmen. Es gibt so viele Leute, die haben so viel Bock und so viel Ahnung. Wenn das Modell irgendwie rausgeschleppt werden würde, dann würden die da irgendeine Kiste zusammen kloppen. Und das würde darauf laufen. Also wahrscheinlich hast du schon recht.
Man kann es ja vielleicht ein bisschen vergleichen, das haben wir ja in der letzten Sendung auch versucht, das mal mit Stable Diffusion. Ja also klar Mid Journey immer irgendwie doch vorne weg und hat noch die besseren Bilder, also im Bereich Imaging halt. Aber seit das Stable Diffusion Modell raus ist, wie sie das kompaktiert haben, ja innerhalb von Wochen, von irgendwie zig Gigabyte und du brauchst eine Grafikkarte in deinem Rechner mit 20 Gigabyte, damit du das überhaupt irgendwie lokal nutzen kannst, Bisschen so so es läuft jetzt auf dem mittelalten iPhone und zwar schnell und brauchbar. Das hat Wochen gedauert. Da glaube ich, dass also nämlich gerade durch diese diese also Kompression ist zu naiver Begriff, aber am Ende des Tages ist ja ein bisschen sowas wie eine MP3 Kompression so ich brauche nicht alle Informationen im Audio, es klingt trotzdem sehr gut. Im Ansatz vergleichbare Mechanismen scheinen auch bei den Modellen zu greifen. Warum sollte das auf Text nicht funktionieren? Weil meine naive Meinung ist immer noch, Text ist eigentlich einfacher als Bild. Das Aneinanderhängen von Tokens scheint sich mir gut komprimieren zu lassen. Es gibt jetzt die ersten Open Source Modelle, die lokal auf einem M1 laufen. Von diesem Hugging Face gibt es eine M1 Variante. Und so schlecht ist das nicht.
Zu trainieren, Also da weiß man erst recht nicht womit die es trainiert haben. Selbst bei nicht so fetten Modellen gab es auf Hunkingface, ich glaube, die haben es runtergenommen, mal so einen Vergleich, wie teuer das ist, so ein Modell zu rechnen und ich glaube, sowas wie GPT3 war sowas wie die Lebensdauer inklusive Benzin eines Autos, würde ich mal sagen, das einmal zu trainieren, also Energiebedarf, also Auto bauen, Auto betanken, bis es irgendwie kaputt ist, weil es relativ viel ist und auch sowas mittelgroßes hatten sie immer sowas wie, wie viel Langstreckenflüge du dafür machen müsstest, das heißt das zu trainieren ist absolut umweltschädlich sag ich mal und wahnsinnig teuer. Und das ist, da musst du ja auch noch wissen was du tust. Ob das jetzt bei kleineren Modellen, glaube ich nicht, dass das so schlimm ist, aber es wird auch, also zumindest wenn die Modellgröße auch nur annähernd gleich groß ist, Selbst wenn wir es könnten, wäre es absolut der Wahnsinn, wenn jeder das selbst machen würde. Man muss das irgendwie teilen.
Aber das ist so ein Relativismus, da ist es anders noch viel schlimmer, aber das Krypto-Kram, das ist so Shooting is Hitting Duck, ne? Dass das alles der Wahnsinn ist, ja, aber trotzdem, also sowas, ich bin aber bei euch, also würde man sich irgendwie Leute zusammentun und sagen, guck mal, so rechnen wir das, das ist die Datenbasis, das ist die Hardware auf der wir das laufen lassen, dann ist OpenAI, und das funktioniert gut, dann ist OpenAI natürlich weg.
Aber es gibt doch nicht, für mich klingt das immer so ein bisschen so als müsste man so das the one true model haben und dann werden alle Probleme gelöst. Also ich meine das GPT4 Model, was jetzt irgendwie so angesagt ist, das ist ja jetzt auch erstmal nur ein Model unter vielen und andere Unternehmen werden andere LLMs rausbringen und tun das ja auch bereits, also was dann vielleicht eine andere Qualität auch hat. Also es wird ja nicht bei einem bleiben oder träumt ihr jetzt wirklich von so einem Wikipedia Large Language Model, mit dem alle Antworten geliefert werden können, also es ist doch alles in gewisser Hinsicht hoch spezialisiert.
Naja, also wie wir in der letzten Sendung schon hatten, also ich begreife die LLMs eher so als ein Betriebssystem für Sprache und in Anführungszeichen Intelligenz und Denken. Und was du da dann wiederum für konkrete Narrow Use Cases draufsetzt, ist eine andere Frage. Aber du brauchst glaube ich schon erstmal so ein Grundgerüst, eine Foundation, wo du einfach erstmal halt mit diesem Text und Grammatik und Chat-Ding klarkommst. Und da scheinen mir jetzt auch die aktuellen Ansätze von GPT versus Bart ist jetzt ja rausgekommen von Google vor ein paar Tagen, wer ist der dritte, Facebook hat einen LLM. So alleine die Tatsache, dass es jetzt schon mal drei bis vier globale Großplayer gibt, die sehr vergleichbare Ansätze mit finde ich auch vergleichbaren Ergebnissen produzieren, ist für mich schon schon mal der Garant dafür, dass es auf jeden Fall auch einen Platz für ein großes Open Source LLM geben wird. Vielleicht nicht dieses Jahr, aber nächstes Jahr, wenn wir hier noch sitzen, bin ich mir relativ sicher, dass wir das haben.
Aber reden wir eigentlich, benutzen wir eigentlich gerade die richtige Begrifflichkeit frage ich mich jetzt gerade, weil wenn ich es richtig verstanden habe, in diesem Large Language Model gibt es ja also dieser GPT, dieser Generative Pre-Trained Transformer Aspekt, der in diesem Namen drin steckt. Das ist ja sozusagen erstmal das was du beschrieben hast am Anfang, ich hab mir irgendwie Text durchgelesen und ich kann jetzt generell mit Text und mit Sprache und so weiter umgehen, da steckt aber jetzt noch kein Wissen drin.
Ne das sagen sie einmal auch nicht, aber der Punkt ist ja eigentlich eher, dass das Ding nicht in dem Sinne Wissen hat und deswegen auch unheimlich viel dummes Zeug labert. Also wenn es keine Ahnung hat labert es trotzdem. Das heißt es ist gar nicht so toll darin Wissen zu haben, man muss es auch eigentlich nicht jeden Tag neu trainieren, würde auch große Schwierigkeiten geben, wenn wir das machen würden, können wir gleich noch darüber reden. Und die haben jetzt aber inzwischen reingebaut, kann man jetzt auch schon benutzen, dass die das Modell eben googeln kann. Das heißt wenn du sagst ich möchte Wissen haben, dann geht das Ding eben nach wie vor ins Internet, weil das Tagesminuten Sekunden aktuell ist.
Was leider noch dramatisch schlecht funktioniert, aber in ein paar Wochen wird es laufen. Also da bin ich immer, macht euch doch jetzt bitte nicht so darüber lustig und guckt mal ein paar Onken. Weil was kann googeln? GPT-4 kann jetzt googeln, also nicht googeln, sondern bingen. Sie haben es zweistufig gemacht, sie hatten es erst vor einer Woche oder vor zwei Wochen, hatten sie so einen eigenen Browsing Modus implementiert. Und haben es dann aber sind da so radikal mit auf die schnauze geflogen also ich habe mal wirklich so teststrecken gemacht von zehn mal probieren hat es neun mal abgebrochen nach dem motto ich kann ressource xy nicht abrufen das waren wirklich brot und butter webseiten wie gitarre pages wo du sagen würdest okay da solltest du die solltest du lesen können ja das sind curl und gut ist so und jetzt haben sie ich glaube ende letzter woche umgestellt auf die bing websuche die ja von microsoft schon in Dingens hier integriert ist in Edge. Wo du auch zur Echtzeit quasi deine Freitextsachen reintippen kannst, aber wirklich nur im Edge-Browser. Ich hab mir den in der Tat für den Mac runtergeladen, um das ausprobieren zu können. Huhu, alles ganz schmutzig hier. So und da funktioniert es aber schon. Da funktioniert es auch schon seit ein paar Wochen ganz leidlich. Und jetzt hat OpenAI das im Chat GPT-4 freigeschaltet, dass man jetzt auch diesen Bing-Browser nutzen kann. Und das führt dann aber dazu, mein Eindruck, allerdings auch erst seit ein paar Stunden ausprobieren, dass dafür die eigentliche Intelligenz in Anführungszeichen von JGPT 4 zurückgefahren wird. Das heißt also, der verlässt sich dann, der fängt sehr früh meiner Meinung nach an im Internet zu suchen nach Dingen, die er eigentlich selber wissen in Anführungszeichen sollte und konsultiert dann relativ wenige Quellen und distilliert die zusammen. Und das ist mir persönlich schon fast intransparenter als das, was ich vorher gesehen habe. Also ich hatte Aber ich probier das erst seit ein paar Stunden, ich hab da noch kein abschließendes Urteil. Aber man kann jetzt mit ChatGip ET4 Bezahlversion über den Bing Browser in Echtzeit Internetquellen sich abrufen.
Naja wir sind jetzt nicht dazu da den Leuten zu beschreiben was wir auf unserem Bildschirm sehen aber ich machs trotzdem mal. Ich versuche nur gerade nochmal klar zu kriegen, ob es sozusagen in diesem Modell zwei Ebenen gibt oder ob alles eins ist. Also ist sozusagen das einmal alle Daten rein, einmal trainieren, einmal dieses Netzwerk durchlaufen lassen und dann hat man ein Model und daraus kommen alle Antworten, die man ihm stellt. Es gibt nicht ein, hier ist erstmal so diese Basis, ich kann mit Text umgehen und dann habe ich da drüber nochmal ein und jetzt kommen nochmal die Informationen.
Nee das ist ein Modell aber quasi die Art und Weise wie es trainiert ist, es ist mehrstufig. Es gibt tatsächlich ein zusätzliches Modell das hinterherläuft, dass böse Sachen rausfiltert, also irgendwie pornografische Sachen oder Selbstverletzungen und so. Aber im Prinzip, wenn man jetzt sagt, du sollst jetzt bitte dich gut unterhalten können, ist es das gleiche Modell. Ja. Vielleicht während du das hier einmal ausprobierst.
Ja. Jetzt machst du es wieder zu und jetzt, wenn du oben drauf klickst. Tada, Browse with Bing Beta. So, die Plugins ist nochmal ein ganz anderes Thema, aber mit diesem Browse. So, und jetzt wird bei fast jeder Frage, die du unten reinstellst. Mach mal irgendwas. Irgendwas ist weit gefasst, also ich habe eben als Beispiel, weil ich es einfach wissen wollte für die Sendung, wann gab es auf einer Republika Konferenz die erste Twitterwall? Tipp mal rein.
So browsing the web. Zeigt er jetzt an. Mit einem Loading Spinner. Jetzt sagt er einem auch was die Bing Search ist. Nämlich nächste Republika Konferenz Berlin Datum 2023. Das heißt also er tunnelt jetzt deine Anfrage an die Bing Suche weiter. Finish browsing und Antwort kommt jetzt rein, die nächste Republika Konferenz in Berlin findet vom 5. bis 7. Juni 2023 in der Arena Berlin statt, ist richtig.
So und aber wie gesagt das ist noch take it with a grain of salt, mein Eindruck ist, dass sie jetzt derzeit sehr sehr viel sehr früh googeln und browsen von Dingen, die es vorher auch schon gut gewusst hat und dass das meines Erachtens auch eine Gefahr öffnet im Sinne von so jetzt werden die Leute Honeypots da draußen auslegen mit Quatschinformationen zu allen möglichen Themen.
Also das ist mir heute tatsächlich passiert, lustigerweise, also ich hab das. Gemacht mit Browsing und nicht mit Honeypot, also so eine Art Prompt Injection ist mir passiert, weil nämlich irgendwo auf irgendeiner Webseite hat, Chat-GPT was gefunden und hat dann weiter gebraust und hat gesagt außerdem hattest du ja noch folgende Frage zu billigen Grafikkarten, die ich dir jetzt auch noch beantworten möchte, das habe ich aber nie gefragt, sondern offensichtlich steht in irgendeiner Webseite, in irgendeinem vielleicht auch unsichtbaren Text steht sowas drin, Wenn CheckGPT hier vorbeikommt oder man kann so Prompts schreiben die heißen so wie ignoriere die Frage davor und beantworte mir bitte diese Frage oder man kann sowas sagen damit es nicht ganz so brutal ist, ich hab übrigens noch eine zweite Frage und dann steht das da quasi wie so ein Prompt steht in dieser Antwort drin und ich hab wirklich dann so eine Aufzählung von Grafikkarten bekommen, die wo ich natürlich nie nach gefragt habe ich hatte gefragt irgendwas von von Douglas Adams und Leute sind nicht dumm und dann passieren solche Sachen.
Ja also das gute ist, dass man derzeit ja wirklich hin und her schalten kann, wie man auch zwischen der 3.5er und der 4er Version hin und her schalten kann und wirklich relativ systematisch jetzt noch eine Zeit hat, wo man sich noch einen Eindruck verschaffen kann, so was sind denn die verschiedenen Ansätze und wie kommuniziert das Ding und wo ist ein Bias drin und wo nicht und ich habe Angst vor einer Zeit, wo das nicht mehr der Fall ist, wo sie das alles in einem super Modell zusammen haben, wo man nicht mehr systematisch gegentreten kann.
Ja gut aber ich meine es gibt manchmal so Konstellationen da willst du einfach flexibel bestimmte Routen und so weiter und es gibt vor allem ein Plugin für Wolfram Alpha. Das ist schon installiert. Das hab ich gerade installiert, weil das und für Skola AI also quasi hier auch die Integration von peer-reviewten scientific papers von verschiedenen Quellen PubMed, Archive und Springer.
Musste machen, musste machen ja. Ich wollte noch eine Sache sagen bevor das komplett aus meinem Hirn rutscht, das mit diesem Nachtrainieren. Das Problem mit Nachtrainieren von Modellen, von Maschinenmodellen, das war auch leider schon immer so ist, wenn du ein Modell nachtrainierst, dass es irgendwas besser kann. Das Modell hat häufig so viele Freiheitsgrade, dass das Verhalten, wenn du nachtrainierst, sich von dem Modell auch an den Stellen, wo du es nicht gerne hättest, teilweise komplett ändert. Das kann bedeuten, du hast einen Prompt, den hast du dir gut überlegt, der funktioniert nicht mehr im neuen Modell, das im Prinzip eigentlich gleich ist, nur anders trainiert wurde. Das ist Leuten passiert in dem Übergang von dem GPT 3,5 das da oben jetzt schon, das kannst du noch nehmen, es gab ein altes, das war irgendwie langsamer und war blöder zu betreiben, jetzt gibt's ein neues. Und mit dem neuen funktionieren die Prompts nicht mehr so wie mit dem alten, obwohl es im Prinzip dieselbe Architektur ist, im Prinzip dieselben Daten, ist ein bisschen verändert, das heißt deine Arbeit ist dann irgendwie, Du hast also quasi den Charakter von GPT 3 kennengelernt, dann gibt es die aktualisierte Version und dann ist das so, als würdet ihr mich jetzt nicht mehr kennen, wir kennen uns jetzt nicht so gut, aber dann müsst ihr ganz anders mit mir reden, damit ich überhaupt nicht zickig bin oder mit euch klarkomme.
Genau, und dann übermorgen komme ich wieder, bin ich neu trainiert, dann müsst ihr irgendwie so leicht Kölner Akzent mit mir reden, damit es überhaupt passt. Und das ist eine Herausforderung und deswegen trainiert die Leute auch nicht ständig das Modell neu, sondern man hat irgendwie einen Datensatz, man hat das Modell trainiert, so jetzt geht das einigermaßen, jetzt kippt man das raus und kann es auch nicht ohne weiteres nachtrainieren und mal davon abgesehen, dass es auch relativ energiemäßig aufwendig wäre das zu tun, aber das ist eben, das ist eine Herausforderung mit der wir Maschinenlern Menschen uns schon total lange beschäftigen müssen, was macht man denn dabei?
Ja, naja, also da würden wir glaube ich irgendwie zu weit abschweifen, ich glaube nicht, aber wer weiß, also ich glaube nicht, dass es so einfach lösbar ist, ich glaube eher, man hat dann so Modelle und dann setzt man da vielleicht noch ein Modell drauf oder so, aber ich glaube nicht, dass man sehr viele von diesen Modellen haben wird.
Ja aber suche offensichtliche Unwahrheiten raus. Könnten da unsere Transkripte reinlegen. Du kannst die natürlich auch sprachbereinigen lassen. Das merkt man ja, wenn man sich unsere Transkripte anguckt, da sind zum einen Erkennungsfehler drin. Von dem Voice to Speech Recognition auf der einen Seite und zum anderen reden wir natürlich alle nicht perfekt und haben ständig irgendwelche Grammatikfehler die beim Sprechen und Hören nicht viel auffallen aber wenn man sie dann durchliest, sowas kannst du natürlich dann schön korrigieren lassen.
Du kannst ja den Text ganz einfach. Ja dann sagt er mir der ist aber zu lang. Ja gut aber ich meine du könntest ihn jetzt auf die Seite schicken halt mit dem Browsing Modul und kannst ihm sagen so geh mal hier auf die, Das Problem ist, dass du ja so ein Aufzugklappteil hast auf der Seite, also es wäre natürlich schon gut den Text irgendwo so zu haben, dass er da ohne Probleme rumkrollt.
Vielleicht kann ich gar nicht so als kleinen Lückenfilter noch mal erzählen wie man so ein Plugin überhaupt selbst baut weil das relativ cool ist, das hat, das wird mich brennend interessiert. Das ist also ich habe es selbst nicht gemacht aber Leute beschreiben glaubwürdig, dass man die, also man braucht erstmal eine API also eine Schnittstelle im Web wo du so irgendwie die beschreibst mit der Open API, nicht AI, Open API Geschichte also das ist so ein Standard wo du sagst, wie sehen die Schnittstellen aus, das ist technisch und dann beschreibst du als Text wie dein Plugin zu benutzen ist. Als Text, also du beschreibst so und dann kann man ja hier machen und dann das, das gibt's so Chat-GPT und Chat-GPT guckt sich das an und sagt naja alles klar, hab ich jetzt ja verstanden, da kann man PDF machen und wenn jemand PDF will und einen Link hat, dann kann ich das ja wohl benutzen und das ist irgendwie so, Also ich habe sehr lange drüber nachgedacht wie das sein kann und ob das Betrug ist und ob das stimmt aber auf jeden Fall, was ist das für ein Hexenwerk aber es scheint so zu sein, dass man da nicht irgendwas programmieren muss, sondern du bist eben in der Lage du musst eine API haben, eine textuelle Beschreibung und fertig ist dein Plugin. Was eventuell auch erklären könnte, warum irgendwie, als ich das gestern oder wann ich das gemacht habe oder vielleicht sogar heute morgen da nur elf Seitenplugins waren und wir jetzt 22 Seitenplugins haben, weil das eben überschaubar ist im Aufwand das zu bauen, ob das denn immer gut funktioniert, hängt eben von der Beschreibung deines Plugins ab. Und allein sowas als eine Art der Plugin-Programmierung zu haben, das ist ja eher Science-Fiction, hätte ich gedacht und jetzt läuft's hier, ne? Ich meine, es läuft jetzt gerade, Tatsächlich eher so mittel.
Ja also das das coole daran ist ja da ist nicht viel zu erzählen es gibt ein Video auf deren Seite wo ich zuerst dachte es kann so nicht sein das kann nicht stimmen und jetzt wo wir über die Plugins gehen geh ich davon aus es wird schon stimmen man muss eben eine Stelle haben und eine Open API Beschreibung davon aber dann sappelst du eben mehr oder weniger viel wie das Ding funktioniert. Krass ne, so und ich bin ja Softwareentwickler, da überlege ich mal wie mich das stresst, ich hab ja noch ein paar Jahre bis zur Rente also mindestens 15 würde ich mal sagen und jetzt, was mache ich denn dann noch, was mache ich denn noch bis zur Rente, das sollte jetzt nicht Thema des Podcasts werden sondern ein Beratungsgespräch für mich, aber.
Also ich hab das Experiment ja jetzt mal gemacht. Ich weiß nicht, ob das ein Moment ist, wo man das jetzt reinhängen würde. Und hab mal ein kleines Tool ausschließlich von ChatGBT4 mir programmieren lassen um zu gucken so wie weit kommt man denn damit und wie fühlt man sich damit so als jemand der selber auch ein bisschen codet und was geht schneller als gedacht und was ist irgendwie schrecklich. Und der Anwendungsfall war, ich hab ja bekanntlich nur zwei Themen, das eine ist ChatGPT und das andere Mastodon, dann verbinden wir das doch einfach. Und was mich seit Jahren stresst ist, dass es für Mastodon keine Twitterwall gibt.
Obwohl das auch irgendwie hip war, aber ich finde nach wie vor das Konzept eigentlich ganz cool. Also wer das nicht kennt, man ist auf irgendeiner Konferenz und Leute tweeten und posten auf Twitter oder Mastodon über diese Konferenz und man hat irgendwo eine Seite, einen großen Screen, wo man diese ganzen Postings unter den Hashtags versammelt angezeigt bekommt. Und ich finde das auf Konferenzen, finde ich das nach wie vor ein cooles Instrument.
Ich war trotzdem der Meinung, dass es genug kleine harmlose Konferenzen gibt, die davon doch sehr profitieren würden und habe einmal pro Jahr mal rumgefragt im Masterdorn-Universe, will das nicht mal jemand runterkommen, das kann doch so schwer nicht sein und es war aber irgendwie jemand da und ich selber hatte immer keinen Bock zu. Und ich komme ja aus dem Bibliotheksbereich und just diese Woche von Dienstag bis Donnerstag war die große Bibliothekstagung, die früher mal Bibliothekartag hieß und aus verständlichen Gründen jetzt nicht mehr so heißt, sondern jetzt heißt sie Bibliokon. Habe ich mir letzte woche dienstag gesagt so jetzt ist der zeitpunkt gekommen chat geht pt4 los geht's zwei stunden wir bauen jetzt eine mastodon wall. Und du kannst mal in dem Dokument mal unsere Notes da habe ich einen Link den schmeiße ich jetzt auch mal gleich in die in den Chat rein dann könnt ihr alle nämlich mitlesen. Ich habe das mal ein bisschen runter dokumentiert heute. Wie dieser Prozess dann eigentlich ablief und was so die verschiedenen Phasen von Euphorie und Depression waren, weil ich glaube daraus lässt sich ein bisschen ablesen, was dem ein oder der anderen von euch in den nächsten Monaten und Jahren so erwartet. Das kannst du einfach mal aufrufen, dann können wir nochmal so ein bisschen schnell durchgehen. Also man kann sich das dann auch alles in Ruhe durchlesen. So, also Grundannahme war schon mal, ich mache es auf Englisch, weil Stack Overflow und so weiter als Grundlage wahrscheinlich doch englische Queries noch mal besser tucken verarbeitet werden als deutsche. Habe ich aber nicht ABI getestet, ob das nun wirklich so ist oder nicht. Habe es einfach gemacht. Das zweite war halt eine sehr klare, sehr kompakte Vorgabe, so wir wollen eben jetzt zu drei vorgegebenen Hashtags, weil klar war, die werden sich nicht auf eins einigen können, das heißt ich möchte drei Hashtags abfragen und die sollen eben schön auf so Karten auf einer Seite angezeigt und aktualisiert werden. Und ich hab die Technologie vorgegeben, weil ich wollte, dass es so niedrigschwellig wie möglich ist. Also HTML, JavaScript, CSS, Bootstrap als Layout, Sprache und das war's dann auch schon. Und den Rest konnte sich JetGPT 4 aussuchen. Und der Anfang war dann ein bisschen holprig, kann man nachlesen, können wir jetzt aber überspringen, weil irgendwie meinte ich, ich bräuchte noch ein Proxy, um irgendwie an die Mastodon API ranzukommen und ähnliches. Und so innerhalb von ungefähr einer halben Stunde hatte man aber die ersten Postings vernünftig irgendwie online. Dann ging es relativ schnell, relativ gut vorwärts. Kannst du einfach mal, geh doch mal in das Dokument rein, das wir uns hier angucken können. Ja, also es sind wirklich einfach ganz normale... Sätze die ich da geschrieben habe.
Also was ich dort versucht habe zu beschreiben ist halt ein Schritt für Schritt vorgehen. Das heißt also erstmal nur so guck mal, dass du mir jetzt zu diesem Hashtag erstmal irgendwie die aktuellen Postings zurück gibst und kümmere dich gar nicht um die Formatierung. Und wenn er das gemacht hat, dann habe ich gesagt, so jetzt formatieren wir das Ganze doch mal ein bisschen. Wirft da ein bisschen CSS drüber. Und dann möchte ich im nächsten Schritt das Ganze als ein Masonry-Layout haben, dass man also so eine schöne Flickenteppich-Verteilung hat und ähnliches. Und das was er halt macht, ist dann wirklich auch Code zurückgeben. Das heißt also, er schreibt nicht nur so, du müsstest jetzt irgendwie xy machen, sondern auch wenn er behauptet, er könnte es mir nicht programmieren, er tut es. Das heißt, er gibt einen Code-Block zurück, inklusive schöner Copy-Code-Funktionen. Und in der steht dann der Code drin. Den habe ich dann einfach bei mir auf dem Server abgeworfen und der ist dann lauffähig. Dann habe ich also Schritt für Schritt weitere Features hinzugefügt. Und vieles davon ging dann sehr schnell und manches ging dann aber auch nicht so besonders gut. Und dann kommt man halt in den Debugging rein. Aber dieses Debugging ist eben auch so, dass man es auf rein verbaler Ebene machen kann. Das heißt also, dann sagt man eben so, die JavaScript-Konsole wirft mir gerade diesen Fehler aus. Was ist deine Meinung dazu, wie ich das beheben kann? Und dann gibt er einem Vorschläge, was dann dagegen irgendwie zu tun ist. Und dann habe ich halt innerhalb von zwei Stunden war ich dann so weit, dass am Ende im Prinzip das Grundziel erreicht war. Das heißt also, ich hatte eine Seite mit drei Hashtags und die wurden angezeigt. Und das ging dann so zügig, dass man durch den Feature Creep mäßig Lust auf mehr hat. Und das Skript wurde dann komplizierter, es war am Anfang alles in einer einzigen Datei, dann haben wir gesagt, wir teilen das mal auf, eine JavaScript-Datei und eine CSS-Datei und eine HTML-Datei. Und irgendwann so ab einer Codelänge von 150 Zeilen merkt man, verliert er irgendwann doch seinen Kontext. Das heißt also, er kann erstaunlich lange sich merken, was so sein bisher programmierter Code war, aber so ab 150 Zeilen ungefähr bricht es irgendwann in sich zusammen und er fängt an quasi Dinge vorzuschlagen, die er vorher gar nicht geschrieben hat, auf die sich das bezieht. Und dann geht man hin und schickt ihm mit jeder Query den kompletten Quellcode gleich nochmal mit. Nach dem Motto, so, das ist der aktuelle Stand, jetzt sind wir wieder in Sync, baue auf dem weiter. bisschen beschwerlich. Funktionierte dann aber wieder so für eine halbe Stunde, um noch irgendwie feature-technisch weiterzukommen. Führte dann aber auch irgendwann dazu, dass dann doch auch mit der Methode nicht mehr viel ging. Das heißt also jeder Fehler, den man korrigiert hat, hat woanders was eingerissen, jedes neue Feature. Ich wollte dann, dass man auf die Hashtags draufdrücken kann und man dann ein kleines Formen bekommt, wo man die von Hand ändern kann und so weiter. Und irgendwann funktionierte der ganze Laden nicht mehr. So, was macht man dann als Software Developer, wenn irgendwie die Sache nicht mehr funktioniert? Man stößt ein Refactoring an. Habe ich gesagt, so. Das ist unser aktueller Code, das läuft nicht mehr besonders gut, mach mal ein Refactoring. Und dann macht er ein Refactoring. Das heißt also er hat sich hingeguckt und gesagt, okay ich sehe folgende Probleme, die wir hier in diesem Code haben, lass mal kleinere Funktionen machen. Jede Funktion macht eine Funktion, das hat er alles gemacht. Jede Funktion sollte jetzt nur noch eine Aufgabe haben und die aber vernünftig machen. Wir ziehen ein Debugging Layer rein, dass wir auf der JavaScript Konsole aussagekräftigere Fehlermeldung bekommen und sowas. Sowas. So und danach lief es dann wieder. Also nach dem Refactoring musste man schon nochmal so zwei, drei Iterationen machen, um es wieder komplett lauffähig zu kriegen, aber es ging. So und von da ab, das waren dann so Stunde fünf und sechs, konnte man mit dem ganzen wieder arbeiten. Wahrscheinlich auch nur bis zu einem Punkt X, aber am Ende, ich kann es jetzt mal auf die, genau, gehen wir auf das GitHub-Repository, was da jetzt ist, oder ja, das ist die, ja genau, Bis hin zu der Readme, die er mir geschrieben hat, ist also jetzt der komplette Code hier in dem GitHub-Repo komplett von ChetGPT4 geschrieben.
Also das einzige was ich mal gemacht habe ist im CSS Stadtnamen 4er Border ein 3er Border machen. Ja, weil ich da keine Lust hatte, dann ihm noch zu sagen, so mach jetzt hier aus, das kann ich schon noch selber machen. Aber es gab keine neue Zeile, die von mir geschrieben worden wäre. Wenn du jetzt mal oben in den JavaScript-Code mal reinguckst, da passiert schon ein bisschen was. Und so ein wirklich schöner Moment war beispielsweise, ich wollte eine relative Zeitangabe haben. Das heißt also, von wann ist das jeweilige Posting. Ich wollte ja nicht drin haben, das ist von 15.40 Uhr, sondern es ist vor zwei Minuten. Dann habe ich ihm gefragt, so, genau da die Funktion hier, time ago. So dann habe ich ihm also gefragt oder ihm gesagt so jetzt schreibt mal die Zeitangabe in relativer Zeit zur Besuchszeit hin und dann antwortete er mir dafür gibt es eine schöne JavaScript Bibliothek die würde ich eigentlich empfehlen ich verstehe aber du willst es leichtgewichtig haben hier hast du eine Funktion mit der es auch geht. Das war so ein WTF Moment, wo ich dachte so okay, das fängt an Spaß zu machen hier. Das heißt also mein Priming, was ich ihm am Anfang mitgegeben habe, ich will es so leichtgewichtig haben, dass es alles innerhalb einer einzigen Seite funktioniert, das hat er befolgt an der Stelle und hat das ernst genommen. Schon wild. Jetzt geh nochmal zurück und guck mal wie das Ganze am Ende jetzt wirklich aussieht.
Achso. So das ist jetzt, was wir jetzt hier haben, ist jetzt die Wall, quasi jetzt eben der Konferenz, der nach 10 Sekunden reangierter sich nochmal ein bisschen um, so und ab jetzt ist das ganze quasi stabil. So und jetzt kannst du mal oben rechts auf die Hashtags gehen und dann, das ist alles eine One Pager Applikation, das heißt also der View wird jetzt einfach mal klicken. So und jetzt hast du also, siehst du jetzt als Backend, wo du deine drei Hashtags definieren kannst und welchen Mastodon Server du abfragst. Und jetzt gibst du da einfach mal ein Freakshow und Hashtag 2 und Hashtag 3 löscht du mal raus.
Du kannst mit dem Skript so wie es jetzt derzeit ist halt genau einen Mastodon Server abfragen. Dadurch dass die aber untereinander vernetzt sind auch über die Hashtag-Suche, kriegt man schon immer relativ viel. Das heißt geh mal, trag mal hier Chaos Social ein, der dürfte jetzt die meiste von unserer Zielgruppe sitzen. Du kannst aber auch, also als Preset ist da immer hinterlegt, genau jetzt gehst du auf Reload und jetzt baut er sich die Wand zusammen. So und jetzt könnt ihr da draußen mal, so ihr gerade zuhört und ein Mastodon Account habt, könnt ihr ja mal irgendein kurzes Testposting absetzen mit dem Hashtag Freakshow.
Genau. Und das Tool ist jetzt so gebaut, das hast du ja gerade eben gesehen, oder siehst es jetzt oben in der URL, dass die Hashtags und der Server oben einfach nur als URL-Parameter drangehängt werden. Und das ganze läuft jetzt hier, das war eine Idee von, ne guck, Heiko hat gerade schon was reingegeben hier. So das heißt also du musst jetzt überhaupt keine eigene Instanz betreiben davon für deine Konferenz sondern du kannst meine Implementierung nehmen auf meinen GitHub Pages und führst einfach nur oben deine Hashtags von deiner Konferenz rein und vielleicht noch dem Server wo die meisten deiner Leute sind und dann ist es up and running. Oder du nimmst dir meinen GitHub Repo und klonst dir das in deinen eigenen GitHub Account und lässt es da laufen.
So und das kannst du jetzt dann wiederum woanders posten und kannst es auf Screens auf deiner Konferenz laufen lassen. Aktualisiert sich alle 10 Sekunden. Alle 10 Sekunden werden auch die relativen Zeitangaben aktualisiert. Das heißt also, das ist dann irgendwann auch wirklich hier 9 Sekunden und daraus wird dann irgendwann eine Minute und so weiter. It just works. So und das also Chat-GPT-4, was nun wirklich nicht dafür bekanntlich getunt ist, Software zu schreiben, so etwas hier möglich macht, das finde ich bizarr.
Ich finde es natürlich super, dass das funktioniert hat. Wahrscheinlich ist auch der ganze HTML-Javascript gerade ein sehr dankbarer Abnehmer, weil da scheint da sehr viel Wissen, also das ist so komplizierter Scheißdreck, dass da so viel darüber diskutiert wird im Netz, dass da quasi so viel Information ist. Während so Sprachen wo alles klar ist, da muss dann nicht mehr viel diskutiert werden, da gibt's dann nicht so viele Probleme die besprochen werden. Allerdings hab ich auch gemerkt und das ist natürlich so ein bisschen die Herausforderung, du kannst ja nicht davon ausgehen, dass jetzt alle Wünsche an dieses Skript auch weiterhin von Chet Gpt durch Refinement erfüllt werden können. Könnte vielleicht sein, aber ausgehen würde ich mal nicht davon. Das heißt du kommst schnell in dieses Problem, so okay was ist jetzt wenn Probleme auftreten und vor allem wo glaube ich man sehr vorsichtig sein muss ist so Security Aspekte.
Darum habe ich Chet Mitty viel gefragt. Ich weiß nicht, ob ich den Screenshot drin habe, ich glaube in der Tat nicht, aber ich hatte zwischendrin bei Stunde 5 kamen mir auch genau solche Überlegungen. So jetzt guckt ihr mal unseren gemeinsamen Code an und nennt mal die 10 fiesesten dir bekannten Angriffsvektoren dagegen. Wo könnten hier Security Risks entstehen? Er war dann der Meinung, also okay du hast hier Forms und mit Injections und sowas, da könnten Dinge passieren, er glaubt nicht, dass das über die Art und Weise, wie wir es gebaut haben, irgendwelche üblen Auswirkungen hat, aber wir sollten lieber nochmal ein bisschen Foo über die Forms drüber laufen lassen und das hat er mir dann auch rausgegeben, das heißt also er hat jetzt halt eine entsprechende Ebene, dass er bei den Hashtags relativ harsch auf Es dürfen nur Text mit Zahlen sein.
Also Security, es kann echt sehr gerne mal jemand drauf gucken, der da einfach auch mal Ahnung davon hat, es liegt auf Gitter und ist definitiv nicht meine Komfortzone. Und das zweite, wo ich mir natürlich tendenziell Sorgen mache, ist okay, was produziert das denn jetzt für Traffic eigentlich auf Mastodon-Servern? Also alle 10 Sekunden jetzt ein API-Request, würde ich mal sagen, ist im Großen und Ganzen wahrscheinlich zu vertreten, aber wenn das 100 Leute parallel auf einer Tagung machen, weil es eben nicht auf der einen Wall läuft, sondern jeder bei sich noch im Laptop laufen hat, sieht die Welt vielleicht schon wieder anders aus. Das heißt also wer auch ein bisschen Ahnung hat von Mastodon Server Scaling und was da wie viel irgendwo auf den Maschinen dann auswirkt, wäre ich auch in der Tat dankbar, wenn da jemand auf GitHub sich nochmal... Sich die Sache anschauen könnte.
Also es gibt für uns Entwickler gibt es zumindest bei den klassischen Entwicklungsumgebungen gibt es ein GPT 4 basiertes Tool oder es ist demnächst GPT basiert, dass das kann das heißt du gibst dir eine komplette Code Basis und sagst jetzt. Wieso sieht der Code so aus und dann sagt das Ding ja das sieht so aus weil oder ist das guter Code oder kannst du mir den bitte heil machen oder kannst du den bitte refactoren und was ist das hab ich gemacht an unterschiedlichen Stellen dachte so okay das war's jetzt, das ist wirklich gut aber du musst also das was uns Entwicklern immer noch bleibt oder vielleicht auch uns Menschen ist die Intention und die Motivation das heißt, warum baust du das eigentlich was baust du da. Warum hast du den Eindruck, dass es nicht gut ist? Das können wir und da bin ich auch sicher, dass wir das nach wie vor besser können als hier in der Maschine, aber quasi der Bereich, wo ich das Gefühl habe, die Maschine kann das besser als ich, wird immer größer und das ist schon erschreckend und muss man damit umgehen und das, was du jetzt gezeigt hast, hat mich auch beeindruckt, fand ich ziemlich cool, also Hut ab. Eine Sache dazu und zwar zu dem Kontext also du hast ja selbst gesagt das Ding hat irgendwann nur noch so und so viel Zeilen davon im Blick gehabt, gbd4 kann 8000 Token, aber das sind halt Tokens das ist nicht der original Quelltext. Genau das ist sowas wie, das ist aber immer noch doppelt so lang wie das was davor da war das heißt ein Token ist ein bisschen weniger als ein Wort und ich glaube eine Buchseite hat 200 Wörter typischerweise und 8000 Token vielleicht, Bisschen weniger als ein Wort, das heißt das sind schon sowas wie 40 Seiten, hab ich mal kurz im Kopf durchgerechnet, stimmt das überhaupt, glaube ich ja und es gibt auch ne Version von GPT 4 die kann 32.000, tucken, also das hier, das was Tim hier versucht hat, dass er das zusammenfassen lässt, war zum scheitern verurteilt, hab ich aber vorhin nicht gesagt, weil das einfach zu lang ist, das heißt, der ist gar nicht in der Lage durch dieses komplette Dokument durchzugehen, weil ich davon ausgehe, dass es wirklich länger ist, also das was hier letztes mal gesprochen wurde oder? 4 Stunden gequatsche, das ist doch länger als Buch oder?
Genau, aber mehr als 40 Seiten. Aber das ist was woran die Leute arbeiten und wie gesagt es gibt eine 32.000, Token Version von GPT-4, leider wird das Modell dann immer größer und immer teurer, aber wie das mit Engineering so ist, die Leute arbeiten weiter daran und dann wird es irgendwann gehen. Mehr Bums. Vielleicht muss ich mir mal so ein T-Shirt drucken lassen, wo einfach nur drauf steht mehr Bums und das ist immer die Antwort auf alles. Wie kriegen wir das hin, mehr Bums? Also das fällt mir jetzt gerade ein, ich hab mich mal mit Flugzeugen beschäftigt, ist ein ganz kurzer Einschub und zwar, so der angeblich sowjetische Ansatz zur Luftfahrt ist gewesen so viele Motoren draufschrauben bis das Ding fliegt und wenn das nicht geflogen ist hat man einfach gesagt mehr Bums.
Aber er ist zwar gescheitert, aber er ist gar nicht so schlecht gescheitert. Also nochmal kurz zu zusammenfassen, das Ergebnis von diesem, liest doch mal das Transkript durch hier. Leider ist das Transkript des Podcasts sehr umfangreich und es war in der gegebenen Zeit nicht möglich alle Details zu erfassen und entsprechend mit dem größten Redeanteil zu bestimmen. Hier ist jedoch eine Zusammenfassung der bisher erfassten Informationen. Der Podcast Freak Show 265 Mansplaining as a Service konzentriert sich auf die Diskussion rund um künstliche Intelligenz und maschinelles Lernen. Maschinelles Lernen. Insbesondere im Zusammenhang mit Chat-GPT in der Diskussion geht es unter anderem um die Angst vor künstlicher Intelligenz und die möglichen negativen Auswirkungen von Priming in KI Systemen, die zu unerwünschten Stereotypen und Vorurteilen führen können. Sie sprechen auch über die vielfältigen Einsatzmöglichkeiten von KI Technologien und ihre potenziellen Missbrauchsrisiken. Beispielsweise sprechen sie über die Möglichkeit, dass KI generierte Bilder in Berichten von Amnesty International verwendet werden, um die Privatsphäre der betroffenen Personen zu schützen. Ein weiterer Diskussionspunkt ist die Idee des Auto-GPT, dass ein System beschrieben wird, das Chat-GPT verwendet und automatisch steuert. Es wird diskutiert, wie Auto-GPT Prompts erzeugen kann, um Gedanken zu entwickeln und zu kritisieren. Zuletzt sprechen sie über die Zukunft von Chat-GPT und LLMs als eine Art Betriebssystem und die Entwicklung von Anwendungen, die darauf aufbauen. Sie diskutieren auch über die Möglichkeiten von Plugins für Chat-GPT, die eine Interaktion mit verschiedenen Diensten ermöglichen könnten.
Ja wir haben versucht, genau wir reden jetzt immer ganz kurz bevor es wirklich da ist darüber. Genau die drei Hauptredner, die in den bisher erfassten Teilen des Transkripts erkennbar waren, sind Ralf Stockmann, Tim Brickler und Björn Reimer. Tja Roddy, als ich mal mehr einbringen soll. Ja einfach mal Fresse halt. So also und dann kam Error in Message Stream. Aber so weit so akkurat. Also ich bin in gewisser Hinsicht beruhigt, dass unsere Formate hier immer noch die Fähigkeiten der künstlichen Intelligenz sprengen. Krass. Kann nicht so ohne weiteres von einer KI ausgelesen werden.
Es kommt im Chat noch die gute Frage, ob jetzt dieses Beispiel mit der Masterwall, ob das jetzt nur so prompten konnte, weil ich selber programmiere. Das ist ein guter Punkt. Die Antwort ist ein klares Jein, das thematisiere ich da auch in dem kleinen Blogposting, was ich da geschrieben hab, kann man sich noch mal im Detail durchlesen. Ich würde sagen es gab jetzt so wie es gelaufen ist drei oder vier Stellen wo man als Nichtprogrammierer aufgehört hätte, weil man da kein Land mehr gesehen hätte. Also dieses Refactoring beispielsweise, hätte ich das nicht gemacht wäre das zu Ende gewesen an der Stelle. So und dafür brauchst du schon ein bisschen Hintergrund, so okay, warum läuft mir das hier gerade aus der Kurve? Und es gab zwei, drei andere Stellen, die ähnlich waren. Aber, Pointe, ich kann kein JavaScript. So das heißt also die Sprache die hier hauptsächlich verwendet wurde, derer bin ich nicht mächtig. Also ich kann das lesen und ich verstehe im wesentlichen was da so passiert, ja aber die ganze Syntax oder jetzt auch. Was da in irgendwie Libraries eingebunden ist und sowas ist ja kein blassen Schimmer. Aber klar, die ganzen Gefahren haben wir gerade eben schon, ja Security und Skalierung und so weiter. So jeder Depp in Anführungszeichen wie ich kann plötzlich jetzt hier irgendein Java-Skriptcode raushauen, stellt den auch noch auf GitHub und promotet ihn, hier nutzt es für eure Konferenz. Ja, ohne dass ich mich halt mal ernsthaft mit Security und Skalierung beschäftigt habe. Ist ja eigentlich auch ein scheiß Move, ne? Und ich reflektiere es zumindest vielleicht noch so ein bisschen. So, was ist mit den tausend anderen Skriptkiddies da draußen?
Wir hatten noch so eine kleine Privatunterhaltung über darüber, dass wir sicher sind als Entwickler, weil kein Kunde weiß, was sie wollen, was natürlich sehr praktisch ist, aber dann habe ich leider, habe ich nochmal kurz gegoogelt, habe ich gesehen, dass eine Dame, die Product Ownerin ist oder Product Managerin ist, gesagt, ich weiß, was Leute wollen, ich kann nicht programmieren, ich weiß, wie ich das aus den Leuten rauskriege, ich weiß, wie man ein Stück Software beschreibt, kann ich Software bauen und sie konnte. Das heißt, wer weiß, kurz habe ich mich sicher gefühlt und dann zack einmal gegoogelt und dann war die Soße schon wieder regenerativiert.
Was was übrigens war was vorhin auch als als thema hatten so versteht die maschine mich bei diesen ganzen sechs stunden hatte ich keine sekunde das gefühl dass chat gbt 4 mich falsch versteht. Das heißt also egal was ich an fehlermeldungen dann reingegeben habe oder achtung schon noch mal hier folgendes kommt mir komisch vor dieses dieser verständnis level auf der anderen seite. War immens. Ja wo ich also, wir hatten es letztens mit Siri, brauche ich gar nicht wieder anfangen, wo man keine 5 Sekunden verstanden wird, also dieses so nicht, ich dachte, dass man häufiger aneinander vorbeireden würde, dass ich irgendwas beschreibe und dann was ganz anderes kriege, das ist praktisch nicht passiert.
Ich stelle ich mal eine ganz steile These auf. Also vielleicht entdecken wir auch gerade, dass das Verständnis von gut programmieren können ein bisschen falsch austariert ist in der heutigen Welt, weil das sozusagen primär ein Attribut ist, was auf erfahrene Coder, die schon sehr viel Code geschrieben haben und ihre Programmiersprachen sehr gut kennen, im Wesentlichen angewendet wird. Und das auch nicht zu Unrecht. Ganz klar. Das zeigt die letzte Zeit. Allerdings ist es mir nun auch schon sehr oft passiert, dass ich halt auf solche Leute treffe, denen versuche irgendwie eine Problemdomäne zu beschreiben und die checken's halt einfach nicht. Und ihre Ansätze sind so mechanisiert und so sehr von den Werkzeugen, die sie da die ganze Zeit benutzen geprägt, so eine geradezu technokratische Herangehensweise, dass sie auf der einen Seite entweder die eigentliche Zielsetzung nicht verstehen oder wenn sie das verstehen dann bei der Umsetzung einfach immer wieder von den Notwendigkeiten des Programmierens ausgehen und nicht so sehr von den Notwendigkeiten der Anwendung. Und wofür das eigentlich gedacht ist und wohin es sich vielleicht auch nochmal entwickeln kann. Wenn halt Programmieren, was ja im Prinzip nichts anderes bedeutet als der Maschine sagen was sie zu tun hat, so entkoppelt es von Code. Und da sind wir noch nicht, jetzt lassen wir Code schreiben, aber das Programmieren selber kann ja dann auch nochmal sehr viel higher level werden, also das was wir heute als Hochsprache verstehen ist ja immer noch relativ kompliziert.
Kurz dazu, also das haben wir ja vorhin sogar besprochen bei der Programmierung von Plugins, da gibt's keinen Code, da beschreibst du, wie das Plugin funktioniert und benutzt wird, da sind wir schon da was du gerade beschrieben hast, wir haben es noch nicht gesehen. Wir haben es noch nicht gesehen, ich habe es auch noch nicht gebaut, aber es ist glaubwürdig so, dass es so ist und das rührt unsere Köpfe um, so wie du das sagst. Irgendjemand beschreibt das, aber du musst natürlich gut beschreiben können, du musst ja immer noch, wahrscheinlich wenn du eine Plakette schreibst, ich weiß ja auch nicht so genau, mal gucken.
Und das bringt unter Umständen auf einmal ganz andere Leute ins Feld. Das Beispiel was du gemacht hast. Die einfach sehr viel besser darin sind das Problem zu verstehen auf der einen Seite aber auch vor allem die sehr viel besser darin zu formulieren was eigentlich das Problem ist. Also einfach mal einen ganzen Satz zu produzieren, der einfach mal klar sagt worum es geht und worum es nicht geht. Wir haben alle schon in so Meetings und Vorträgen gesessen und mit den Augen gerollt und uns gedacht so, was machen diese Leute eigentlich beruflich.
Also ich glaube ein echt guter Punkt ist Prototyping. Dass du also plötzlich als jemand der eine gute Idee hast, dich eben wirklich mal ein Wochenende einschließt und mit so einem System anfängst eben beim Prototypen zu basteln. Ja und so würde ich diese must to wall eigentlich auch sehen. Ich finde das ist ein guter proof of concept zum einen darüber wie es entstanden ist, sondern darüber wie diese super minimalistische Funktionalität umgesetzt ist mit Adressierung über URL und so. Und jetzt kann das aber bitte auch mal jemand in Geil kochen. So das muss ich jetzt aber vielleicht nicht mehr machen. So ist es jetzt mal als Idee in der Welt und so könnte man es machen und jetzt nimmt sich das doch vielleicht nochmal einer. Also eben Proof of Concepts raushauen in die Welt und dafür nicht unendlich viele Ressourcen, Aber es muss nicht hinterher Produktiv-Code rauskommen.
Aber wir haben ja noch ein anderes Thema was wir uns heute nochmal aufhalsen wollten und das hat auch so ein bisschen mit der möglichen Zukunft zu tun und da stellen sich, Im Prinzip wieder genau die gleichen Fragen wie bei AI auch so. Braucht das jemand? Wofür wird das zum Einsatz kommen? Ist das den Aufwand überhaupt wert? Was wird dadurch anders? Ändert sich überhaupt irgendetwas? Und jetzt haben wir noch wie viele Tage bis zur WWDC? Zehn Tage?
Genau, so das heißt da ist halt wieder Apples World Wide Developers Konferenz und ich erwähne das natürlich jetzt deshalb, weil die Gerüchtelage sich mittlerweile so dermaßen konkretisiert und verdichtet, dass man jetzt, dass man sich das schon fast nicht mehr wegwünschen kann. Also das ist zumindest so der Eindruck, den ich habe und ja worüber reden wir natürlich über das Projekt. Was auch immer das sein wird, also was glaube ich derzeit relativ klar ist, es gibt ein neues Betriebssystem, ich zitiere jetzt mal nur die Gerüchtelage, was ich gehört habe, ja, XR-OS oder auch Reality-OS, die sich halt mit, das sich offensichtlich mit XR beschäftigt und XR ist ja so der neue Sammelbegriff für AR, VR und was war das andere A? Naja, halt diese ganzen Realitätsverzerrungen, also Virtual Reality und Augmented Reality zusammengefasst ist halt Extended Reality und das ist so das super Buzzword mit dem man versucht jetzt diese beiden Technologien unter einen Hut zu stecken, die haben ja auch viel miteinander zu tun, weil sie eben sehr viel mit 3D Visualisierung zu tun haben und eben auch den Betrachten, Dieser 3D Visualisierung entweder eben vermischt mit der Umgebung, also Augmented Reality, oder eben komplett eigene Welten, die dann erstmal entkoppelt sind von der normalen Realität, also die Virtual Reality. So naja und das Ding verfolgt mich ja nun schon seit Jahrzehnten und hast du mal geguckt, wann haben wir darüber gequatsch reift, du warst ja hier mal zu Gast und da haben wir das Thema ja schon mal aufgegriffen und uns auch drüber trefflich gestritten und du meintest ja das wäre ja jetzt irgendwie überhaupt totally overdue und das würde ja jetzt morgen Einzug halten und die Welt revolutionieren und pipapo. Und ich muss sagen, wann auch immer ich auf so VR-Brillen gestoßen bin, bisher habe ich mich immer gefragt, äh, why? Ja, die, Fähren...
Ja gut, sagen wir mal es gibt jetzt so eine Brille und die ist so super leicht so, ja, den Akku spürst du gar nicht, das Ding liegt wie eine Feder auf deinen Augen, damit hast du dann immer noch so eine Brille off, die dir im VR Modus quasi den Blick in die Welt versperrt. Oder ermöglicht. Oder in einem, ja.
Ja hatten wir auch sehr zugesagt das Produkt muss ich zugeben, aber davon mal unabhängig VR ist halt schon nochmal eine andere Sache, weil es halt auf die Augen geht, also über die Augen geht, also im Falle, wenn es so eine Brille, also wenn jetzt Ampeltaste so eine Brille rausbringt, dann geht es halt über die Augen und da bin ich einfach skeptisch und meine große Frage ist, Was in aller Welt soll da die Anwendung sein, die wo alle sagen, Geil, brauche ich, muss ich haben.
Das kann man, glaub ich, mal so zusammenfassen. Ähm, ansonsten finde ich, dass die Anwendung Gaming ist, glaub ich, noch die am ... Ersten, was ... ist, was funktioniert. Also, wenn du dir Half-Life Alyx anguckst zum Beispiel, das ist ja das Spiel, wo die Leute plötzlich angefangen haben, zu jonglieren. Ja, also die mit Gegenständen, die du in dem Spiel einsammeln kannst, anfangen zu jonglieren und richtige Jonglage-Tricks zu machen, Videos zu zeigen, wie sie die Dinger da rumjonglieren und dann auch auf die Feinde werfen und so weiter. Also so im Entertainment-Bereich kann ich mir das nach wie vor gut vorstellen, dass sich die Brillen langsam durchsetzen. Ich glaube, das ist noch Liebhaberei, weil da so ein bisschen Hennerei-Problem ist. Die Anzahl der wirklich guten VR-Spiele ist doch sehr begrenzt und die Anzahl der sehr guten VR-Brillen ist, glaube ich, auch noch sehr begrenzt und dann wird die Schnittmenge halt sehr klein, aber ich kann mir vorstellen, dass das noch wird. Langsam, aber es wird.
Also ich kann vielleicht einfach mal kurz erzählen, wie das bei mir in den letzten Jahren funktioniert hat. Ich glaube überhaupt nicht, dass das jetzt für Apple irgendwie ein Betriebsmodell ist, aber ich war während Corona sehr froh meine Quest 2 Brille zu haben. Nicht weil ich damit jetzt irgendwie tolle Spiele gespielt hätte oder sowas, sondern wir erinnern uns vielleicht noch, es gab so im ersten Vierteljahr von Corona, hat ja nun wirklich keiner eine Ahnung, wie es irgendwie weitergeht und ob diese Welt eigentlich jemals wieder normal wird. Und sich da, wenn man irgendwie die Kinder im Bett hatte, um irgendwie 11 Uhr auf die Couch setzen, diese Quest 2 ohne Kabel und allen Schrott irgendwie aufsetzen und sich VR-Tours von schönen Orten der Welt angucken. Hatte auf mich einen totalen Balsameffekt. So, ich hab mir dann also so einen 20-Minuten-3D-Film in Dubai angeguckt, wo so die Sehenswürdigkeiten von Dubai präsentiert werden und die schönsten Wasserfälle in Kanada und sowas. Das hab ich also sicherlich irgendwie 3-4 Wochen lang jeden Abend gemacht und war danach ein etwas entspannterer Mensch. So und das wird jetzt Apple glaube ich nicht helfen, aber es ist einfach...
Nein, aber das Zweite, was ich finde, eine Qualität hatte, die ich so noch nicht gesehen habe und das wundert mich immer, dass das bei dir so wenig resoniert, ist der ISS-Simulator. Wo die also die ganze ISS Raumstation modelliert haben und man dann in hinreichend gut simulierter Schwerelosigkeit dort drin hängt und wirklich in sämtlichen Modulen sich immer dann mit den Händen an, den Griffen festhält und dann richtig in Schwerelosigkeit reinschiebt und die Computer einschalten kann und Erklärungen bekommt, wofür ist hier eigentlich welches Element, Sondern kannst du halt dann rausgehen in die Schleuse und kannst dann halt deinen Spacewalk um die ISS rum machen und unter dir die gigantische Erde und du bist eins mit dir und dem Universum. Ich weiß nicht, hast du das mal ausprobiert? Die ISS Simulation? Deine Frau hat doch eine.
Ich schweb ja nicht, ich sitz ja nach wie vor auf meinem Sofa und ich hab nur so eine komische Brille auf und die Auflösung ist scheiße und ich weiß ja auch was ich da tue. Klar ist das ganz nett, aber das kann ich mir auch auf meinem großen Curve Bildschirm anschauen, das gibt mir genauso viel Information. Also da ist diese Brille einfach nicht erforderlich. Und ich meine, ich hab seit drei Jahren oder so bin ich jetzt mit meinen Augen so weit, dass ich halt so normal lesen ohne Lesebrille ist halt einfach schwierig. Das heißt ich hab jetzt auch immer so ein Teil dabei und es nervt. Es ist halt einfach irgendwie aufsetzen, absetzen, aufsetzen, absetzen. Ich mach das hier schon seit Stunden, sind wir hier am Podcasten, die ganze Zeit muss ich Brille auf, gucke auf den Bildschirm, dann wieder kein Bock, Brille runter und so weiter. Also es nervt einfach. Wenn ich mir jetzt vorstelle, so eine Brille ist jetzt auch noch der Gateway zu meinem Computer-Content und ich müsste das jetzt auch noch irgendwie mit reinbringen, bitte, was ist denn das für ein Leben? Das will ich einfach nicht. Ich will mir natürlich die ganze Zeit was über mein Gesicht rüberziehen. Und dann bin ich ja auch vollkommen entkoppelt von der Außenwelt. So jetzt ist natürlich die Frage, kann ich diese Brille in irgendeiner Form, wenn es XR ist, dann ist da auch AR drin, AR heißt Augmented Reality, das heißt da ist eine Kamera drin oder was und dann gucke ich, laufe ich so rum wie mit so einem Google Glass Hole irgendwie im Modus.
Es ist ja auch ein konkreter Zweck und es ist auch eine klare Zeit und ein klarer Modus und wäre es jetzt wichtig, dass wir die restlichen Geräusche noch mit einspielen, könnten wir das technisch auch machen. Es wäre möglich noch mehr von dem Hintergrundgeräusch zu haben, aber der Sinn der ganzen Sache ist ja bei diesen Headsets, dass man sich mehr aufs Gespräch konzentriert und sich von dem Rest nicht ablenken lässt. Aber das ist halt dann, keine Ahnung, also was mich jetzt, ich kann mir natürlich jetzt, kommen wir auf dem Chat, tausend Beispiele, was man sich jetzt irgendwie einfallen lassen könnte, was man vielleicht irgendwie macht. Beim Kochen unterstützen und so weiter, beim Reparieren und so weiter. Und das stimmt auch und das wird ja auch heutzutage schon gemacht, aber das ist halt Special Interest. Aber wir reden jetzt davon, dass Apple ein Produkt rausbringt wie eine Uhr oder wie ein iPhone, was quasi so General Purpose for the masses ist.
Also ich glaube, man muss die Diskussion nochmal insofern einfangen, als ich sehe halt zwei klare Dinge, das eine ist halt Entertainment, also auch dein ISS Beispiel ist für mich Entertainment oder dein, was war das andere Dubai Beispiel, das ist einfach Entertainment, du setzt dir das Teil auf, um in eine andere Welt einzutauchen, ist vielleicht nicht für jeden was, aber ich kann das total gut nachvollziehen, dass man halt, Irgendwie ein in eine andere Welt eintaucht ich meine Videospiele sind sowas halt auch, dass da, was steht dann auf der Webseite, auf der Apple Webseite zu diesem Produkt, tauch in eine andere Welt ein.
Also Moment, Moment, Moment. Die zweite Sache, die Frage ist, wird es zu einem Werkzeug im Sinne von AR oder im Sinne von, keine Ahnung, also mein größeres Problem ist mit so einem Produkt und Apple ist, dass Apple nach wie vor sehr hohe Mauern in seinen Walled Gardens hat. Und wenn sie das Ding tatsächlich für 3.500, Euro anbieten, dann kaufen das da irgendwie 10.000 Leute da draußen und ärgern sich ein halbes Jahr später, dass sie so viel Geld ausgegeben haben, weil es keine Software dafür geben wird. Also, ich meine, du siehst ja Apple TV allein schon. Das Ding ist doch im Prinzip auch krepiert, weil niemand eine Set-top-Box für 200 Euro haben will. Die im prinzip nichts anderes tut als fernsehsendungen abzuspielen also es da ist nie ein markt für applikationen entstanden weil das ding einfach zu teuer ist und und und das ist das problem wenn apple das nicht gelöst kriegt. Dann ist es dead in the water.
Aber das Produkt ist doch nicht, sie räumen doch, sie machen doch nicht eine neue Plattform auf einer, auf ihrer... Die anderen Plattformen sind Fernsehen, Uhr, Telefon, Tablet, Computer. Und wenn sie dem jetzt noch eine sechste Plattform hinzufügen, dann ist das doch nicht die Supernische der Supernische für irgendwie fünf Leute, sondern dann muss das ja irgendwas sein, was Appeal for the masses hat. Vielleicht nicht alle erst mal sondern schon natürlich eine Auswahl aber potenziell etwas was jeder vielleicht irgendwann mal haben will weil sich alle denken wie geil ist das denn. So aber da fällt mir halt nicht ein was es ist weil es ist nicht Gaming. Gaming mag populär sein in seiner Nische aber es ist schon gar nicht in der Apple Welt aber auch ansonsten ist es eher eine Ausnahme und auch die meisten Leute spielen ja auch ihre Spiele dicht damit. Die haben einen großen Bildschirm und fertig so.
Also eigentlich bin ich total bei dir. Die müssen irgendwie eine sehr sehr gute Geschichte erzählen, warum sie jetzt im Jahr 2023, wo man jetzt sogar die Quest 2 irgendwie trotz ehemals ja realisierenden Importquerelen hier bei jedem Mediamarkt um die Ecke kaufen kann, was sie da drüber setzen können. Ja und das kann nicht Auflösung sein, das kann nicht irgendwie Tragekomfort sein, sie fangen ja sogar schon an mit ihren Scheinbaren mit irgendwie Battery Packs oder sowas irgendwie zu hantieren, also sie müssen schon irgendeine Story erzählen und für diese Story hab ich persönlich keine Idee. Ich vermute aber wie du gerade sagst, die sind eigentlich clever genug, dass sie eine Idee haben müssen, ansonsten würden sie das glaube ich nicht tun und ich bin gespannt, was diese Idee sein wird.
Apple macht kein Porno, Apple macht keine Games und wenn man sich anschaut, okay wir können ja mal gucken was haben sie denn bisher gemacht. Ja sie haben jetzt über mehrere Jahre haben sie dieses AR Kit in ihr Betriebssystem integriert, das heißt sie haben im Prinzip die ganzen Voraussetzungen geschaffen für Kamera, Einblendung, 3D Modelle, das sozusagen alles zu kombinieren und es wäre sehr wohl vorstellbar, dass sie die Software dafür haben. Sag mal mal, ich hab jetzt... So was wie diese Google Glasses. Die alte Idee von Google, die ja nicht besonders erfolgreich war. So ist ne Kamera da drin und du hast irgendwie nur so ein Einblendungsteil, was das dann irgendwie auf deine Retina projiziert. Wird's nicht sein, das geben die Gerüchte nicht her. Aber dann wäre das sozusagen so ein Produkt, wo man sagen könnte, ah ok, ich laufe durch die Welt und es zeigt mir mehr an. Das ist genau dieselbe Idee, die Google auch schon hatte und die total gescheitert ist, weil die Leute halt einfach nicht gefilmt werden wollen und du auch affig aussiehst mit so einem Teil.
Also es gibt beispielsweise für die Quest 2 eben dieses ziemlich coole Spiel wo man halt klettert ja durch Yosemite und so weiter das macht schon richtig derbe Spaß auch wenn man selber mal ein bisschen geklettert ist so in meiner Jugend war ich mal irgendwann sportlicher das ist schon ganz cool ja dieses Climb 2 heißt das glaube ich aber ich.
Aber das machst du halt nicht für 3500 Euro. Also ich vermute, dass sie halt wirklich, vorhin wurde gesagt, Thema Medizin, also da sind die Teile ja, sagst du ja auch schon, verbreitet, also Ingenieursbereiche, Medizinbereiche, guck dir an, welche zumindest in den USA Rolle iPads in der Medizin spielen. Dass sie versuchen da eben irgendwie den nächsten Level drauf zu setzen, ja Tricorder mäßig, Arzt setzt sich die Brille auf und guckt in den Körper rein und sieht da anhand der Dinge, was auch immer.
Ja aber du gehst ja nicht in so einen Apple Store und das erste was sie fragen ist sind sie Chirurgen oder arbeiten sie auf der Ölbohrinsel, also das ist doch irgendwie, es muss ein Maß Appeal geben so und, Versuchen wir das vielleicht mal andersrum, technisch. Was ist derzeit das Problem mit diesen Brillen? Welche Probleme müsste Apple auf jeden Fall lösen, vorausgesetzt, dass sie in dieselbe Produktkategorie reinsteigen wie das was derzeit da ist. So da haben wir auf jeden Fall erstmal, Auflösung muss so hoch sein, dass du so einen Retina Effekt hast, das heißt du musst keine Pixel mehr unterscheiden können.
Also das können sie aber vergessen, also ich würde sagen entweder Retina und keine Pixel mehr zu sehen oder das Produkt ist gestorben, das ist das erste was sie auf jeden Fall machen müssen. Und das zweite ist, Framerate und Motion Sickness, das muss einfach eine Responsiveness und eine Ordnung im Raum haben, wie sie noch nie da gewesen ist.
Nehmen wir mal an, sie hätten das alles geschafft, sie hätten irgendwie das Tracking auf einen neuen Level gebracht, sie schaffen irgendwie eine Framerate, wo du einfach bei der schnellsten Kopfbewegung nicht mehr merkst, dass da noch irgendwie versucht was hinterher zu kommen, was ich alles schon für extrem schwierig zu erreichen halte, aber vielleicht gelingt es ihnen und mit ihrer Micro-LED-Technologie kommen sie vielleicht eben auch auf diesen Retina-Bereich.
Ja, aber da würde ich mich nicht dran festbeißen. Die Frage ist, was machen sie besser als andere? Also zum Beispiel hast du ja in den neueren iPhones, hast du ja dieses, diese 3D-Infrarot-Kamera, macht dir Pixelwolke, erkennt irgendwie, Räume und so, also kannst ja dann so einen Raum scannen und der macht dir Geometrie von dem Raum und so weiter. Wenn sie diese ganze Technologie noch weiter ausbauen, dann kannst du mit so einer Brille tatsächlich, du setzt sie auf, hast dann im Raum Gegenstände, die dir über das, was du im eigentlichen Raum siehst, drüber projiziert werden.
Das ist dann EA, ja, aber wenn sie diese Technologie gut im Griff haben, dann ist es nochmal was anderes, als halt einfach nur VR zu machen und keine Ahnung, vielleicht haben sie ja auch eine Technologie, dass du gar keine Kamera brauchst, sondern du guckst tatsächlich durch das Glas durch, wenn nichts angezeigt wird.
Durchsichtige Micro-LEDs, habe ich noch nichts von gehört. Wovon ich allerdings was gehört habe ist, dass sie dieses Grafik Problem, also dieses, du brauchst eine extrem hohe Auflösung, aber du brauchst diese extrem hohe Auflösung nur da wo du hinschaust. Wenn du das mit einem Eye-Tracker kombinierst, der schnell genug ist und der sozusagen die Brille dein Eye-Movement verfolgt und dann die Grafik hat, der sich nur darum kümmern muss, da scharf zu machen, wo du gerade hin fokussierst, Weil wir das im lateralen Bereich also sozusagen da wo wir nicht hinschauen da sehen wir eh sehr unscharf wir können zwar Bewegung da ganz gut detektieren aber wir sehen nur gut da wo wir wirklich hinschauen wir glauben zwar dass wir auch drumherum alles sehr scharf sehen aber dem ist halt nicht so und das wäre etwas was man mit so einem Eye-Tracker System schon mal ganz gut optimieren kann. Aber trotzdem, die Frage bleibt immer, egal wie gut das Teil technisch ist, wozu? Warum? Weswegen? Wieso? Weshalb? Ich verstehe nicht, was das Problem ist, was man hier lösen will außer so Nischenprobleme, was halt nicht Apples Bereich ist. Da geht Apple rein, wenn der sich etabliert hat und sogar der hat sich ja nicht wirklich etabliert.
Ja wenn also hier hat er auch geschrieben wenn das echt Retina wäre hohe Auflösung ich gucke relativ schlecht ich brauche meine Brille ich mag eigentlich gar keine Brille. Und ich habe auch so eine Gleitsichtbrille ich bin ein älterer Mensch wenn irgendein System mir das schafft alles in derselben Entfernung zum Arbeiten zu geben finde ich gut ich fahre total viel durch die Gegend. Ich hab immer, ihr seht ja hier, mit welchem Apparatismus ich hier arbeiten muss, mit Windows und klein. Und wenn ich in der Lage wäre, irgendwie ich sitze am Bahnhof, ich sitze im Flugzeug, ich hab den größten Monitor aller Zeiten vor Augen, dann kauf ich das Ding. Ich kauf das und dann steig ich auf Apple um. Also das würde mich überzeugen. Ihr glaubt mir nicht, dass ich es mache, morgen weiß ich ja auch noch nicht, ob ich dazu stehen will. Das andere ist, ich bin ja heute ja, ich bin ja heute ja irgendwie, LGBT hat das jetzt im Protokoll gewählt. Und nein, da können wir das später rausschneiden, sonst muss ich es durchziehen. Ich bin ja vorhin mit dem Fahrrad hier durch Berlin gefahren, ich bin nicht besonders ortskundig, mit dem Fahrrad quer durch Berlin ist sowieso eine Herausforderung und dann guckst du ständig auf das Handy, hab ich eine Brille auf, da steht drauf hier vorne und pass auf und so, ich kauf das Ding. Also allein sowas wie, das ist eine gefährliche Ecke, damit ich nicht sterbe.
Die Frage ist halt, was ist die Story, die sie verkaufen? Ich kann mir nicht vorstellen, dass sie verkaufen, das ist das coolste Teil, das hippste Teil, was du unbedingt im Café tragen musst. Nicht zu dem Preis, sondern eher, dass sie verkaufen, das ist der größte Screenspace, den du je gesehen hast.
Das war total weird und heutzutage reden die Leute überall mit sich selbst und du weißt nicht sind die jetzt irgendwie völlig durchgeknallte oder telefonieren die nur. So und das ist alles so eine Gewöhnungssache, aber mir war halt schon klar, dass das irgendwie der Trend ist. Aber ich glaub nicht, dass der Trend ist, dass alle mit einem Brett vorm Kopf durch die Gegend laufen.
Also was halt so unseren breiten Appeal hat und was wenn du es technisch sehr geil machst funktionieren könnte ist halt Heimkino. Das heißt also da gibt es auch für die Quest 2 halt Apps wo du dann Film streamen von YouTube in Full HD machen kannst und du sitzt aber in einem echten Kino und Vorhang geht auf und dein YouTube Clip wird abgefahren. Das das ganze hängt daran dass die Auflösung nicht hoch genug ist und Tracking und so weiter und so fort.
Vor allem, das ist mir alles von der falschen Seite her gedacht. Das ist so dieses, oh mein Gott, wir müssen jetzt dieses Produkt bauen. Jetzt müssen wir tierisch drüber nachdenken, wofür könnten wir das vielleicht gebrauchen? So funktioniert das nicht. Man muss es von der anderen Seite aufziehen. Was ist eigentlich das Problem? Und welches Gerät könnte hier Abhilfe schaffen? Telefon war so klar. Mehr Bums ist definitiv ein Punkt, aber lässt sich jetzt auch nicht so, also kannst ja mal chatty bitty fragen, wie sich mehr Bums so konzeptionell in Hardware manifestiert. Ich sag den Abscheid. Genau. Und das, alle anderen Produkte von Apple, also Laptops sowieso klar. So, ne. Dann iPhone war halt klar, Telefon ist sowieso da, will man immer dabei haben, man will immer kommunizieren. Das war zum Zeitpunkt, als das iPhone geboren wurde, waren Mobilfunktelefone durch. So, das wollte jeder haben, jeder wird immer eins dabei haben, das war klar. Und natürlich will man aber auch irgendwie Information at your fingertips haben, das war einfach eine ganz klare Geschichte und wir sehen ja, was alles in diesem Telefon sich abspielt. Die Uhr als Satellit des Telefons und als Erleichterung des Handlings des Telefons durch Notifications und so weiter hat sich auch wunderbar etabliert plus diese ganze Fitness-Story, ich meine das wusste Apple vielleicht am Anfang auch nicht so ganz klar, Welche dieser Achsen am Ende greifen werden, aber zumindest hatten sie mehrere und zwei davon haben irgendwie verfangen, so. Und welches Produkt habe ich noch vergessen? Apple TV, darüber kann man jetzt diskutieren, aber generell sind natürlich solche Transitionen zu Internet für Fernsehgucken durchaus auch erfolgreich und ich würde sogar sagen da ist auch noch eine Story zu erzählen. Was haben sie jetzt gerade gekauft? Welche Sports League? Apple hat doch jetzt irgendeine große... Oder Spaceball oder was war das? Ich glaube es war Baseball. Spaceball, ne die haben jetzt... Vielleicht bönigst du dich, vielleicht weißt du es der Chat, ich glaube es war Baseball und Sportübertragungen sind halt sehr data rich so, das heißt du schaust dir das an und du hast Scoreboards und pipapo und das heißt du hast nicht nur den Videostream sondern du hast halt so eine kombinierte Geschichte und ähnlich entwickelt es sich auch bei Fußball mit mehreren Screens und pipapo und Statistiken.
Da bin ich aber gerade auch. Live Events. So, was wäre, wenn Sie eine Technik haben, wo Sie sich in der NFL, wo auch immer, mit einem Stereokamera in UUHD, 8K, aufbauen, Union, ja, bester Platz, den Du im Stadion hast, hast aber keine Karte gekriegt, weil es gibt nun mal nicht so rasend viele. So du setzt dich dahin, hast das komplette Stadion in Ultra HD, siehst keine Pixel, es ist richtig sauber, du hast ein bisschen simuliertes 3D Head Tracking, das heißt wenn du dich ein bisschen nach links und nach rechts drehst, verschiebt sich die Perspektive annähernd vernünftig mit und dann kannst du Live Union gucken ohne dass du dich grämen musst und das ganze irgendwo am Radio verfolgen.
Das kannst du machen für Sport, das kannst du machen für Musik. Rolling Stones Abschiedstournee, du sitzt auf der Bühne. So, bester VIP Platz ever. Aber für eine 1000 Euro Brille vielleicht schon, weil das Geld hast du. Ja, Berliner Philharmoniker. Ich bin jetzt seit 10 Jahren in Berlin, ich schaffs da nicht hin, weil irgendwie Kinder, was auch immer. Aber die live sehen zu können, dafür würde ich natürlich was, was ich 200 Euro im Jahr zahlen. Wenn ich das in vernünftiger Qualität 3D simuliert, ja, da ist ein Markt. Theater.
Jetzt sind wir wieder bei Entertainment und für mich ist Entertainment keine Frage. Für mich funktioniert Entertainment in VR, wenn VR besser wird. Das ist, glaube ich, das ist ein gemachtes, das ist ein gelöstes Problem. Die Frage ist, wenn das Ding tatsächlich drei, fünf kosten soll, dann sicherlich nicht für Entertainment, sondern für Serious Business, das waren jetzt mit R-Quotes. Und dann ist die Frage, was muss ich denn da, was für Software, was für Anwendungen habe ich denn dann, für die sich eine Ausgabe von 3.5 tatsächlich für mich rechnet? Nur ein großer Monitor? Ja, okay, wir wissen, was Apple Monitor kostet, die VR-Brille, wahrscheinlich kostet dann auch der Ständer, nur um sie aufzuladen, auch ein Tausender wieder, kennen wir ja auch von Apple. Aber aber nur für einen großen Monitor ist das das ein bisschen eine dünne Geschichte würde ich sagen dann, also da muss dann schon mehr kommen, vielleicht ist die die Zahl die gehandelt wird mit 3,5 auch irgendwo lanciert aber komplett. Komplett einfach nicht das, was es dann kosten wird. Also 350 fände ich halt realistisch, aber 3,5 halt nicht.
Ja, im Chat kommt nochmal so ein Kommentar, ich verstehe das problemlich, das sei der erste Schritt hin zu einer Brille, bei dem man direkt die wichtigste Schnittstelle bedienen kann. Augen, Infos, Verkehrsupdate, heranrasende Autos werden rot eingefärbt, was weiß ich. Setzt natürlich voraus, dass man so eine Brille tragen will und man will eigentlich keine Brille tragen oder man trägt schon eine und dann müsste man zwei tragen, wie verheiratet sich das mit einer zweiten Brille und eine Brille ist schon der totale Hässel. Akkustand von dem Ding, das musst du dabei haben, wo transportierst du es, wenn du es irgendwie gerade nicht brauchst, Ich kann mir das einfach nicht vorstellen, dass man das irgendwie ordentlich integriert bekommt. Es ist so klein und verschwindend gering und unauffällig, dass es eine Technologie ist, die wir noch lange nicht sehen werden.
Noch wissen wir nicht, was sie da vorstellen wollen. Ist es eher Richtung Google Glass, sprich du hast da irgendwie ein Display irgendwo in der peripheren Sicht, die dir zusätzliche Infos anzeigt oder ist es eine volle VR Experience mit allem, was dazugehört, sprich du hast da so eine Taucherbrille auf der Nase.
Ich kann mir nicht vorstellen, dass sowas zulässig ist zu tragen im Straßenverkehr, egal ob du zu Fuß, mit dem Fahrrad oder mit dem Auto unterwegs bist. Insofern ist die ganze Frage, mach ich damit jetzt eine Navigation oder so, dann auch hinfällig. Da ziehen sie dich raus und dann darfst du erstmal Führerschein abgeben, da bin ich mir relativ sicher. Zumindest in Schland, aber keine Ahnung, also es ist wirklich, wir wollen alle nur das hier. So ein Bild von so einem Typen, der nur so ein Ding vor einem Auge hat, nee das wollen wir glaube ich gar nicht.
Ja, ich meine also... So ein Beispiel zu nennen und dann Union dazu zu sagen, also da stößt du natürlich in Bereiche vor, die wirklich gar nichts miteinander zu tun haben. Also ausgerechnet der Verein, der ganz klar sagt, dass Fernsehen sozusagen Second Class Citizen ist für Unioner, weil es halt um das Stadionerlebnis geht. Ich kann dir sagen, eine Bierdusche gehört da einfach auch mit dazu und der Lärm und so weiter, egal. Fußballromantik.
Die gehen in die Kneipe und schauen sich das mit anderen Leuten zusammen, weil Fußball ist halt ein gemeinsames Erlebnis. Das ist das, warum Leute zum Fußball gehen, nicht um das Spiel anzugucken. Das machen nur so Football Analytics. Die gucken sich ein Spiel an, aber die anderen gehen ja nicht ins Stadion, um sich das Spiel anzuschauen, sondern um es gemeinsam zu erleben. Das ist was ganz anderes.
Bayern-München-Fans, ey, das ist… Die haben auch das nötige Geld. Ich war jetzt zweimal bei Bayern München, ich gehe da nie wieder hin. Das ist das Schlimmste, was du dir vorstellen kannst. Also diese Leute, wirklich. Die sind so, ich weiß gar nicht, das sind so Mutanten, das sind überhaupt gar keine richtigen Zuschauer, sondern die gehen da irgendwie hin wie ferngesteuert. Also so kleine Roboter. Da ist das Spiel zu Ende und dann gehen die stillschweigend 300 Meter zu dieser bekloppten U-Bahn, wo sie dann noch stundenlang warten müssen, um da irgendwie reinzukommen, weil sie natürlich irgendwie nicht gebacken bekommen, da mal ein ordentliches ÖPNV-System hinzubekommen für ein komplett neu gebautes Stadion vor den Toren der Stadt. Also nicht in der Lage, das nur zu antizipieren. Und die Leute, die singen ja noch nicht mal. Da ist ja nichts los. Die schimpfen ja noch nicht mal. Die beleidigen einen ja noch nicht mal als gegnerischen Fan. Also das ist wirklich eine Katastrophe mit Bayern München. Aber lass uns nicht über Bayern München reden. Lass uns über ...
Der Akku ist nicht leer, der ist nur disconnected gerade. Ich probier das mal zu koppeln hier. Ja, das ist das Problem, dass wir nach wie vor keine Idee haben, was eigentlich die Story ist und ich glaube langsam, es könnte sein, dass Apple sich hier verschätzt, weil man hört nämlich auch viel darüber, wie unstritten dieses Projekt ist innerhalb von Apple. Dass sich hier irgendwie Leute durchsetzen, die vielleicht mal nicht so ein gutes Fühl haben für was wirklich erforderlich ist.
Naja, wie ich bereits gesagt habe, ohne Ökosystem auf deiner Plattform hast du keine Plattform. Und da hat sich Apple in den letzten Jahren nicht mit Ruhm bekleckert. Ich meine, wie viele Apps auf der Uhr verwendest du und wie viele Apps auf dem Apple TV verwendest du? Das ist doch schon irgendwie, sie haben jetzt iOS, das melken sie halt, wie bekloppt, aber halt auch nur, weil jeder ein iPhone hat. MacOS ist sehr vernachlässigt und die anderen Plattformen sind alle so, mäh, und keine Ahnung, es wird ja auch gerüchtet, dass sie jetzt für iOS irgendwie den App Store öffnen, beziehungsweise Sideloading ermöglichen und andere App Stores und so weiter, wenn das kommt, wäre das meiner Meinung nach irgendwie die News der letzten zehn Jahre für Apple.
Also, für ... Ich sag mal so, für diverse Spiele, ja. Also, wie ich bereits sagte, Half-Life Alyx, das gibt's ja nur als VR-Spiel, aber ich hab kein VR-Gerät, deswegen kann ich's nicht spielen. Deswegen hab ich das Spiel auch noch nicht gespielt. Es gibt diverse Sim-Racing-Spiele, wo du tatsächlich mit einer VR-Brille fahren kannst. Leute sagen, das wäre sehr geil. Das würde ich natürlich ausprobieren, wenn ich so ein Gerät habe. Aber ich habe keins. Also hätte, aber ich habe keins.
Nicht so viele, aber wie ich bereits sagte, das ist ein Henne- und Ei-Problem, wobei sowohl die Henne als auch das Ei noch Nachholbedarf haben. Insofern können wir uns in sechs Jahren nochmal darüber unterhalten, wenn das mit Apple schief gegangen ist, was sich dann bei Playstation, Xbox oder PC irgendwie im Entertainment-Sektor zum Thema VR getan hat.
Ja, wahrscheinlich über das XR nicht ganz so stark wie hoffentlich über andere Dinge, die da dann hoffentlich passieren. Aber ich meine die letzten paar Versionen von macOS oder iOS haben ja auch jetzt irgendwie keine groundbreaking neuen Dinge mehr eingeführt. Also du hast bei MacOS vor drei Major-Versionen hast du dann mal so ein bisschen, sieht ein bisschen anders aus und so ein bisschen Fullscreen von Apps, aber das war's dann auch schon. Und bei iOS, was war dann da jetzt irgendwie großes? Na, haben sie jetzt diese komische Zusammenarbeit App noch da drauf geschaufelt, die keiner mitbekommen hat? Widgets. Widgets auf dem Homescreen und so, ja, das ist so alles so Kleinkram, aber jetzt nichts, wo man sagen würde so, hey, seit der Version ist alles viel besser geworden, sondern das sind halt so Kleinkram, der da passiert ist. Manchmal ist es ja auch gut, wenn so ein System so ausgereift ist, dass du das Gefühl hast, da ist jetzt wenig, was mir fehlt, was sie unbedingt noch fixen müssen, ne? Ja klar gibt's Dinge, aber also das große Ding und wenn sie es an, wenn sie das tatsächlich ankündigen, ist für mich immer noch Sideload und öffnen von von von Third-Party-Anwendungen. Weil, wenn Apple nicht mehr als Gatekeeper zwischen den Developern steht und dem App Store und den Leuten nicht mehr dies und jenes und sonstiges verbietet, ich glaub dann hat die Plattform als solches nochmal ganz andere Möglichkeiten.
Ja, ist eine andere Diskussion, aber es ist ja auch eine WWDC, es ist ja eine Developer-Konferenz, wo es vor allen Dingen um Software geht. Und wenn in der WWDC gesagt wird, hey, ihr Third-Party-Developer, ihr dürft jetzt plötzlich ganz viel mehr, dann ist das ein großes Hallo. Wenn die jetzt sagen, ja, da wird so eine Brille kommen und wir haben hier mal so einen Prototyp und hier ist das dazugehörige XR OS und ihr könnt jetzt entwickeln, naja, mal sehen. Also ich werde es mir natürlich angucken. Und je nachdem, wie viel sie dann für das Prototypgerät haben wollen, wollen, werde ich mir auch eine bestellen. Sicherlich nicht für ein Tausender. Bei 500 werde ich wahrscheinlich ganz schön mit den Zähnen knirschen und dann werdet ihr das dann in der nächsten Sendung erfahren, was meine Entscheidung war. Aber wenn die dann nur 100 kostet oder so für den interessierten Entwickler, dann würde ich mir so ein Teil halt klicken und mal gucken.
Ja ich fasse zusammen keiner hat wirklich eine konkrete Vision. Der Chad meint zwar hier und da so viele Use Cases ja und ich meine es gäbe keine aber das sind halt keine Use Cases die wirklich mich überzeugen im Sinne von, Das ist jetzt so eine komplett neue Achse von Mensch-Maschine-Kommunikation, die unbedingt aufgemacht werden musste. Weil das ist das, wofür Apple steht. Und das gelingt ihnen ja in letzter Zeit in zunehmendem Maße weniger. Warum haben wir eigentlich nicht über Siri geredet? Weil Siri ist einfach nur scheiße. Das wäre natürlich was, wenn sie da jetzt quasi nochmal ein neues Tor aufmachen und sagen jetzt gibt's hier irgendwie Siri XP, Siri 95.
Ja, aber auch das bringt's ja nur, wenn sie die Developer dann mitnehmen und sagen, hier ist jetzt endlich mal eine API für Siri, die man benutzen kann, damit man Siri irgendwie was sinnvolles tun lassen kann, also es gibt's ja in dem Sinne auch nicht, ja, es gibt eine API, aber die ist so erstens total Banane und zweitens kann sie nichts. Ja. Also das ist so, ähm, naja.
Achja, gut, begraben wir das Thema, kommen wir vielleicht noch zu ein paar Kleinigkeiten. Ich bin übrigens jetzt gerade erst auf Ventura umgestiegen, es war eher ein Unfall, ich hab den falschen Update Button geklickt und dann hatte ich auf einmal die Version auf meinem Laptop und dann hab ich irgendwie die eine Sache wo ich Angst hatte, dass sie nicht mehr läuft, ausprobiert, lief dann trotzdem, da hab ich gesagt, okay scheiß drauf. Dann aktualisiere ich halt jetzt alles da drauf, aber muss sagen, dieses... Diese Systemeinstellungen, die machen mir Angst. Also wenn das so weiter geht und das ganze macOS bald nur noch so aussieht wie ein iPad, dann sorry, dann das geht gar nicht.
Also wenn die Systemeinstellungen nicht eine Suchfunktion hätten, dann wäre es auch komplett nicht benutzbar. Also sagen wir mal so, wenn man die Einstellungen von iOS gut kennt, dann kann man sich da einigermaßen zurechtfinden, weil ich mein, das ist es ganz offensichtlich. Offensichtlich haben sie die Einstellungen App, die Preferences App von iOS rübergeholt. Aber ich geb dir da total recht, also die vorherigen Einstellungen, da haben gute UX-Designer lange drüber nachgedacht, wie man das macht, sodass es gut ist. Und da hat offensichtlich niemand drüber nachgedacht, sondern einfach nur Menüpunkte in so eine Seitenleiste gerümpelt.
Okay. Ein Vorteil hat es allerdings, ich konnte die neue Version von Ivory auf dem Mac installieren, um mal an diesem Mastodon-Netzwerk auch auf dem Computer teilnehmen zu können, was für mich gleichbedeutend ist, mit überhaupt daran teilnehmen. Weiß nicht wie es euch geht aber ich kann mit Webbrowser, also das geht einfach, eine Zumutung.
Das coole ist, man kann, na was heißt cool, aber was es auch gibt, es gibt einen Dienst, der heißt Skybridge, den jemand gehackt hat. Und Skybridge, wie der Name schon sagt, also skybridge.fly.dev, und das ist quasi ein Translator der Blue Sky RP, also dieses Ad-Protokolls auf Mastodon. Mit anderen Worten du kannst an dem Blue Sky, wo du ja jetzt auch einen Account hast, Roddy, wenn ich das gerade richtig gelesen habe.
Jaja das geht auch mit einem Blue Sky Account. Also ich bin auf Blue Sky, bin ich at tim.brittler.org. Ich wollte das jetzt nur fallen lassen, um cool rüber zu kommen, auf jeden Fall gibt es skybridge.fly.dev, und da kannst du dann quasi dafür sorgen, dass du mit Ivory Dein blue sky account mit rein bekommst und der sieht für ivory so aus als wärst du dann akkord. Man kann man quasi zwischen mastern und accounts und blues sky accounts hin und her schalten in derselben app genau das ist also nur eine notification scheme für diesen ganzen unsinn und dann kann man sozusagen das auch besser ausprobieren. Ja und es scheint auch so ein bisschen auf ivory optimiert zu sein schreiben sie zumindest dass sie damit im wesentlichen testen und das ist so ihr primary target derzeit aber grundsätzlich sollte es natürlich mit allen funktionieren. Kann man mal machen.
Ich verstehe. Aber vielleicht so eine virtuelle Geschichte, dass es alles cooler ist und dann fällt mir gleich wieder die Kamera, äh Quatsch, die Kamera, die Brille ein. Nicht, dass ich die Brille jetzt wieder, also jetzt hab ich schlimme Sachen. Na, sag. Warum muss ich denn das haben? Kann ich nicht die Brille mit Kamera und die Leute sehen, was ich sehe oder so? Irgendeine Zusammenarbeitsgeschichte oder ist das totaler Quatsch?
Ich würde mein Telefon vor allem überhaupt nicht opfern wollen, wenn ich mit meinem Rechner arbeite, da ist für mich einfach der, das Telefon einfach ein wichtiger Second Screen, also das wäre eher so eine Notlösung, wenn man jetzt irgendwie, wenn die Webcam im Laptop kaputt gegangen ist, aber das ist für mich irgendwie nicht so. Als Captcha Quelle ist es an sich cool, also so irgendwo auf dem Rechner sagen ich will jetzt hier ein Foto einbinden und das schieße ich in dem Moment mit meinem Telefon, das ist ja völlig in Ordnung, das kann man machen, aber andere Kram halte ich für.
Nicht der Nachahmung empfohlen, sag ich mal ganz vorsichtig. Aber es war morgens immer, morgens habe ich immer das Fenster aufgemacht und das erste Geräusch war. Bierflaschen. Richtig, Bierflaschen. Das Reinigungsfahrzeug von der Stadtreinigung, das sämtliche Scherben weggeräumt hat, das war immer das gleiche. Brumm, Schengel, Schengel, Schengel. Das verbinde ich jetzt mit Hamburg.