FS266 Mehr Bums

Douglas Adams — Machine Learning — OpenAI — Programmieren mit ChatGPT — XR-Produkt von Apple

Auch heute legen wir noch mal einen großen Schwerpunkt auf die AI-Bewegung und begrüßen dazu Oliver Zeigermann, der sich seit Jahren auf Machine Learning konzentriert. Wir blicken auf Entwicklungsgeschichte der AI-Technologien zurück und fabulieren über die Machbarkeit einer Open Source AI. Ralf stellt dann auch noch seinen Code vor, den er zu 100% hat von ChatGPT schreiben lassen und grübeln, wie lange es Programmierer noch braucht (Hint: noch lange). Dazu schwelgen wir in Erinnerungen an Douglas Adams und betrauern das mit ihm so früh verloren gegangene Visionspotential.

Dauer: 3:46:51

avatar
Tim Pritlove
avatar
roddi
avatar
Ralf Stockmann
avatar
Oliver Zeigermann

Für diese Episode von Freak Show liegt auch ein vollständiges Transkript mit Zeitmarken und Sprecheridentifikation vor.

Bitte beachten: das Transkript wurde automatisiert erzeugt und wurde nicht nachträglich gegengelesen oder korrigiert. Dieser Prozess ist nicht sonderlich genau und das Ergebnis enthält daher mit Sicherheit eine Reihe von Fehlern. Im Zweifel gilt immer das in der Sendung aufgezeichnete gesprochene Wort. Formate: HTML, WEBVTT.



Transkript
Tim Pritlove 0:02:30
Hallo, herzlich willkommen zur Freak Show, da sind wir wieder.Ausgabenummer, was haben wir jetzt? 266, ich komm immer total durcheinandermit diesen ganzen Sendungsnummern, ich mach zu viele Podcasts,ich hätte alle Podcasts durchnummerieren sollen, egal, egal worum es geht.Naja, ich bin Tim, hallo und ja wir haben wieder nach nur drei Wochen schonwieder eine neue Sendung für euch angerührt und ich begrüße die Runde und fangean mit Roddy. Hallo Roddy.
roddi 0:03:04
Ja, guten Abend.
Tim Pritlove 0:03:05
Guten Abend.
roddi 0:03:06
Du meinst das mit der Nummerierung wie Holgi das macht, wo man dann bestimmteFeeds abonniert und dann haben die Folgen der einzelnen Dinger da ganz merkwürdige Nummern.
Tim Pritlove 0:03:18
Du hast natürlich recht, deswegen mach ich das ja auch nicht,deswegen komm ich durcheinander.Aber besser ich komm durcheinander als alle anderen. So, Ralf ist wieder mit dabei, hallo Ralf.
Ralf Stockmann 0:03:28
Einen wunderschönen guten Abend.
Tim Pritlove 0:03:30
Bist du auch mit deinen Sendungsnummern durcheinander gekommen?
Ralf Stockmann 0:03:33
Meine letzte Sendung ist so lange her, dass… Wie lange denn überhaupt?
Tim Pritlove 0:03:38
Sag mal über deine Podcast, hast du das letztes mal überhaupt schon mal erzählt?Nee, hast du überhaupt nicht erzählt, dass du auch mal einen Podcast gemacht hast, damals?
Ralf Stockmann 0:03:46
Damals, als es noch den Göttinger Podcasting Cluster gab,mit Anycast und Schöne Ecken und so und meine Frau,die Claudia Krell hat mich da hingeschleppt, die war irgendwie mal Gast beiden WikiGeeks, was damals auch zwei Typen waren und wie das bei ihr halt soist, Setz sie irgendwo hin und man nimmt sie sofort die ganze Bude.Und dann war sie bei der zweiten Sendung mit dabei und bei der dritten und beider vierten und irgendwann gehörte ihr gefühlt dann der Podcast und dann warich als Gast einmal mit dabei und hab mich zumindest im Technikbereich so alsso hilfreich angestellt mit irgendwie,ich mach dann auch gleich mal einen Schnitt der Sendung und hier vielleichthaben wir noch bessere Headsets, dann war ich da plötzlich auch drin.
Tim Pritlove 0:04:27
Irgendwann war die Founder nicht mehr dabei und die haben das übernommen.Also totales Podcast Hijacking sozusagen.
Ralf Stockmann 0:04:33
Wie das dann immer so ist. Dann sind wir nach Berlin umgezogen und hatten dannnoch den Renke und den Dennis vom Anycast mit in unserem Vierer-Quartett hierund waren dann aber nach anderthalb Jahren in Berlin.Ich würde nicht sagen es war die Luft raus, aber es stand dann immer mal soein großer relaunch an, um mal so an manche Konzepte noch mal neu und anders zu denken.
Tim Pritlove 0:04:58
Das ist ein großer Fehler, das ist sehr sehr sehr schwer,also iterative Verbesserung, das funktioniert eigentlich meistens,ist nicht einfach aber es geht, man kriegt nicht sofort das was man haben will,aber wenn man lange genug dabei bleibt, Aber immer so dieses,ne wir machen jetzt alles neu und jetzt machen wir erstmal Pause,bis es wieder richtig ist, das hätte ja sogar fast diese Sendung gekillt.
Ralf Stockmann 0:05:20
Ja und wir hatten dann auch so einen richtigen Brandgedanken,um dann irgendwie verschiedene Formate dann alle unter einheitlichem Dach unddu kennst das, aber dann kamen zum einen dann irgendwie Leben dazu und dannnoch mehr Leben in Form von Kindern und dann hat man für sowas wirklich gar keine Zeit mehr.Also die letzte Wiki Geeks Folge ist das glaube ich, nein nicht ganz zehn Jahre,aber neun Jahre her oder sowas, also das ist schon verstörend lange her.
Tim Pritlove 0:05:44
Ach genau, sehr verstörend lange her, auch ein Grund warum ich dich jetzt hier herangeschleppt habe.
roddi 0:05:50
Ich muss mal kurz, mein innerer Autist nervt gerade rum, die Taschenlampe von deinem Telefon ist an.Das macht mich gerade so ein bisschen kirre.
Oliver Zeigermann 0:06:05
Glück, dass wir das geregelt haben.
Tim Pritlove 0:06:07
Ich kann das verstehen. Ich kann das verstehen. Gut, kommen wir zu Nummer vierin der Runde, nämlich Oliver Zeigermann, Olli, hallo, herzlich willkommen in der Freak Show.
Oliver Zeigermann 0:06:17
Vielen Dank. Wie man vielleicht hört an meinem Akzent, angeblich hört man dasja, komme ich aus Hamburg.
Tim Pritlove 0:06:23
Hört man. Hört man das, hört man das, dass ich aus Hamburg komme. Hört man. Ach ne.
Oliver Zeigermann 0:06:27
Also ich versuche immer so meinen Akzent zu unterdrücken und alle hören sofort,aber nicht nur das, sondern auch woher, also machen wir kein Handy mehr draus.Also ich komme aus Hamburg.
Tim Pritlove 0:06:36
Hamburg.
Oliver Zeigermann 0:06:37
Ja, aber wie gesagt, für diese Sendung hier werde ich sehr hochdeutsch reden.Die ganze Zeit. Mich total vernünftig ausdrücken.
Tim Pritlove 0:06:46
Ist ja nicht so, also ich meine, wenn man jetzt richtig krass Hamburgisch spricht,dann fällt das ja meistens noch nicht mal auf.
Oliver Zeigermann 0:06:52
So Heidi Korbel mäßig. Kennt ihr Heidi Korbel überhaupt noch?Oh, wohnst du in Euchtheater?Dann ist man sofort hier, ist man da schon geprimed und kann schon eigentlich auch gar nix.Achso, ich werde ja gefragt, welche Ecke denn? Ich komm aus St.Pauli. Glaubt man kaum, aber ist die Wahrheit. Hab auch eine St.Pauli Fanmütze, hab ich jetzt gerade natürlich nicht auf. Ach guck an.
Ralf Stockmann 0:07:12
Aber ein Handtuch dabei.
Oliver Zeigermann 0:07:13
Ja, ich hab ein Handtuch dabei.
Tim Pritlove 0:07:14
Gehst du auch zum Fußball?
Oliver Zeigermann 0:07:15
Ich geh auch zum Fußball. Leider immer nur dann, wenn ich eine Karte von jemandanders bekomme, weil bei St. Pauli kriegt man keine Karte.
Tim Pritlove 0:07:21
Wir kennen das Problem.
roddi 0:07:22
Oha.
Oliver Zeigermann 0:07:23
Und dann muss man immer warten, ob irgendjemand zufällig… Warst du letztes Mal da?Echt ewig her, es muss vor Corona gewesen sein, das ist eine große Tragödie,aber ich fürchte so ist es.
Tim Pritlove 0:07:34
Ich war beim letzten Derby.
Oliver Zeigermann 0:07:36
Ja, oh warst du? Also beim letzten Derby war ich im Stadtpark,Hälfte meiner Freunde HSV, andere Hälfte St.Pauli. Da wurde auch zwischendrin, da hatte man sich gar nicht mehr so liebmehr, also das war auch so, ich kann jetzt hier ja die Wortwechsel nicht wiederholen,weil das irgendwie wäre ein bisschen zu krass,Am Ende hatten wir uns dann doch alle wieder lieb, aber beim Fußball hört der Spaß auf.Ich finde, also ich meine, Fußball muss auch irgendwie eine Ernsthaftigkeithaben. Ich habe ja diese Theorie, dass es, naja es gibt jetzt wieder Kriege,aber dass es so wenig Kriege in Europa gibt, weil man das über Fußball austrägt.Weil man irgendwie die Aggressionen, wir gegen du, wir gegen dich und Rudelgegen Rudel, dass man das austrägt im Fußball, aber dafür muss man es ernstmeinen. Wenn man das nicht ernst meint, dann bringt das nichts.Hier, St. Pauli, genau. St. Pauli natürlich gut. St. Pauli war früher hauptsächlichso von der Stimmung gut, inzwischen ist das aber auch fußballerisch der totale Knaller.Früher musste man schon ein paar Bier trinken, damit man überhaupt das Spielertrinkt und jetzt ist das aber so, dass man denkt, das kannst du ja machen.
Tim Pritlove 0:08:39
Sag mal, seit einem halben Jahr wieder.
Oliver Zeigermann 0:08:42
Ne, das sehe ich anders. Ich gehe vielleicht das Ganze entgleiten lassen,solange wir uns jetzt mal hier sehen.
Tim Pritlove 0:08:48
Es ist ein solider Zweitliga-Verein. Ich bin ja gerne immer mal bei St.Pauli, auch wenn ich ja sozusagen bei dem anderen coolen Klub bin und von daher...
Oliver Zeigermann 0:08:56
Bei welchem bist du denn? Bist du Union?
Tim Pritlove 0:08:57
Ja klar.Achso. Bundesliga und so.
Oliver Zeigermann 0:09:04
Weiß ja gar nicht, wie sich das anfühlt.
Tim Pritlove 0:09:06
Vielleicht Champions League, mal gucken.
Oliver Zeigermann 0:09:08
Ja ich sag Champions League, fänd ich gut.
Tim Pritlove 0:09:10
Meinst du?
Oliver Zeigermann 0:09:10
Ja sicher, wer sonst.
roddi 0:09:13
Ich hab ja mal ein halbes Jahr in Hamburg gewohnt und da hab ich,um dann auch Leute kennenzulernen, bin ich dann von einer WG zur nächsten getingeltund bin irgendwann mal, hab ich mal in einer WG vorgesprochen,mir das angeguckt, da hatten die einen Mitbewohner gesucht.Die Wohnung der WG war direkt über der Fankneipe von St. Pauli.
Oliver Zeigermann 0:09:35
Oh, heja, und auch noch an dieser üblen Hauptverkehrsstraße.
roddi 0:09:38
Richtig, und dann rannte da der Typ, der das gezeigt hat, rannte dann da sodurch das Zimmer und meinte, ja, also die eine Box hängt genau hier drunterund die andere Box, dann zeigt er in die andere Zimmerecke, hängt genau hier drunter.Und dann war ich dann auch nicht mehr so begeistert davon.Aber die hatten, die waren sowieso auch sehr merkwürdig drauf,die hatten dann irgendwie im Winter gegrillt und um das zu tun hatten sie irgendwieso ein Billiggrill zwischen Heizkörper und Fenster irgendwie so reingesteckt,das Fenster offen gelassen und da in der Wohnung gegrillt und so.Geht doch, muss sowas auch sein.
Tim Pritlove 0:10:18
Naja, auf jeden Fall, um es kurz zu sagen, ich hab dich nicht eingeladen wegendeiner St. Pauli Affinität. Achso, das wusste ich ja gar nicht.Wir können dich ja mal kurz selber vorstellen lassen, pass auf, Achtung!
Oliver Zeigermann 0:10:41
Oh mein Gott, das will ich nicht. Oh man, das ist ja fürchterlich.Das sieht auch aus wie meine eigene Oma.
Tim Pritlove 0:10:52
Naja, es fiel mir gerade deshalb auf, weil, das ist sozusagen ein Ausdruck einesVideokurses, den du gemacht hast bei Manning, du hältst die Hände über den Kopfzusammen, war nicht gut.
Oliver Zeigermann 0:11:05
Doch, es war ganz gut, aber ich weiß nicht, also wenn man so ganz frei spricht,sich unterhält, das klappt alles, aber wenn man so was sprechen muss,was man sich vorher überlegt hat, damit das Hand und Fuß hat,dann wird man zu so einem Roboter.Also manche Menschen können das, aber die haben das irgendwie richtig,also Sprecher ist ja ein richtiger Beruf,nicht aus Versehen und man stellt eigentlich immer vor diesem Dilemma,entweder redet man so, wie ich jetzt rede und dann wirkt das so,als wäre man nur so halb Knusper, Also nicht so richtig nicht so richtig stringentoder man überlegt sich das vorher dann wirkt man so als wäre man eine Maschineund irgendwo da diesen diesen Punkt zu treffen in der Mitte,dass man beides einigermaßen hinkriegt das ist echt eine große Herausforderungund ich würde mal sagen ist nur so mittel gut gelungen also inhaltlich stark aber so,insbesondere wenn man sich das selbst anguckt ist schon hart und dann wenn danoch Video dazu ist dann sieht man auch die ganzen eigenen Meisen also so manhat so Macken, Fummelt sich in den Haaren rum und zwinkert irgendwie so.Jeder von uns macht irgendwas und gnädigerweise spiegeln einem das die anderen nicht wieder.Jetzt guck ich euch gerade so an, was ihr so macht, aber ich sag nix,aber wir machen alle was und wir haben auch so Sprechticks, fast alle von unsund das denn so zu sehen, dann hörst du dir das auch hundert Mal an,guckst dir das hundert Mal an, das...Das ballert schon.
Tim Pritlove 0:12:23
Ich wollte dich ja noch nicht an Pranger stellen, ich wollte nur klar machen,du hast ja einen harten Fokus, du bist halt so, auch Nerd seit schon immer.
Oliver Zeigermann 0:12:33
Ja ich bin Nerd seit immer.
Tim Pritlove 0:12:35
Und haben wir ja eben im Vorgespräch auch festgestellt, auch so schon so mit C64 ging's los.
Oliver Zeigermann 0:12:41
Ich bin C64-Nerd gewesen, bin ich eigentlich immer noch. Also meine ganze Familieist handwerklich begabt, also richtig, ich nicht. Und dann dachte ich immer,scheiße, was machen wir denn jetzt mit Olli? Was machen wir denn mit dem Mann?Der kann ja überhaupt nix.Was machen wir denn jetzt mit Olli? Und dann mein Bruder und mein Vater haben gesagt,kannst du mal ein Nagel reinhauen, dann wird er krumm und so und dann dachten die schon mal,irgendwas muss es doch geben, so und zack kommt Computer um die Ecke und plötzlichkann auch jemand wie ich,der hier irgendwie zwei dicke Hände hat, kann sich ausdrücken über so eine Maschineund letztlich ist das bisher die einzige, tatsächlich die einzige Technik gewesen,mit der ich mich ausdrücken kann und das ist so geblieben.Ich gucke gerade was da steht, aber es geht mich nichts an. Ich habe dann tatsächlichdas auch studiert, also ich habe irgendwie als Teenager habe ich damit programmiertund dachte ja cool, jetzt kannst du auch was.Dann habe ich Informatik studiert, ne eigentlich habe ich, stimmt ja überhauptnicht, ich habe Physik studiert, weil ich so dachte jetzt musst du größere Erkenntnissekriegen, hab dann Philosophie studiert.Find ich immer noch total cool so wissenschaftstheorie und letztlich irgendwieso ein bisschen rumlabern und dann gab das mal so ein hastdu auch philosophie studiert du guckst mich so böse an, dann gab das so ein,Ja, wie soll man das sagen?So ein Orientierungskurs vonLeuten, die in dem Beruf arbeiten und dann dachte ich, das wird hier nix.Da gibt's keinen Beruf. Und dann habe ich Informatik tatsächlich studiert. Und äh...
Tim Pritlove 0:14:09
Wie, zu Ende?
Oliver Zeigermann 0:14:11
Ja, ich habe zu Ende Informatik studiert.Raus! Es hat noch nie, niemand hat.
Tim Pritlove 0:14:19
Ist so ein Running Gag in meinem Podcast, dass ich die Leute immer frage,ob sie auch ein abgebrochenes Informatikstudium vorbeisuchen können.
Oliver Zeigermann 0:14:26
Ich hab abgeschlossenes, aber ich muss dazu einschränken sagen,niemand hat jemals mein Diplom gesehen, niemand, niemand.
Tim Pritlove 0:14:32
Also niemand wollte es sehen?
Oliver Zeigermann 0:14:33
Nein, und niemand hat es gesehen.
Tim Pritlove 0:14:34
Gibt's eins?
Oliver Zeigermann 0:14:35
Es gibt eins, aber niemand hat es gesehen.
Ralf Stockmann 0:14:38
Gutachter schon.
Oliver Zeigermann 0:14:41
Also du wie meinst du, du meinst, ob ich mir das selbst geschrieben habe,also es ist alles legal und so, aber es gibt dieses Diplom.So und so hat sich das so entwickelt, also über die Jahre.
Tim Pritlove 0:14:53
Was war denn das Thema?
Oliver Zeigermann 0:14:54
Von was?
Tim Pritlove 0:14:55
Von deinem Diplom, die Diplomarbeit muss aber irgendwas gehen.
Oliver Zeigermann 0:14:58
Ja das war das war Compilerbau also aber zwischendrin habe ich so KI Zeug gemachtund also Compilerbau ist weiß ich nicht,ist spannend braucht man aber eigentlich überhaupt nicht das war so weil ichirgendwie mich so gelangweilt hab.
Tim Pritlove 0:15:14
Würde ich nicht sagen. Findest du doch nicht auch nochmal wer angeschaut.
Oliver Zeigermann 0:15:17
Ah ja okay, also kann man machen, vielleicht hat es jetzt auch weniger Relevanz,ich hab da ein bisschen drüber nachgedacht, also weiß nicht,auf jeden Fall, um das jetzt vielleicht nochmal irgendwie hier rund zu bringen,KI in der Zeit wo ich studiert habe, ich bin jetzt ein bisschen älter,es waren 90er Jahren, hat überhaupt nicht funktioniert oder überhaupt nichtso wie ich es gedacht habe, es war eine große Tragödie, es war ganz ganz schlimm, echt ganz übel.Und dann, weil noch keiner wusste wohin die Reise geht,es hat nicht funktioniert da war nicht genug Bums in der Kiste, so wie Siri heute,ja nee viel schlimmer, also was man jetzt irgendwie zwischendrin haben Leuteirgendwie mal sowas in den Raum geworfen eigentlich braucht man oder was immerirgendwie ein Game Changer ist,ist mehr Bums in der Kiste, Also einfach mehr Dampf machen, einfach du machst das Modell größer,du hast mehr Daten, du hast fette Prozessoren, so ganz brutale,gewalttätige Sachen, die haben es am Ende gebracht und haben es auch tatsächlicham Ende gebracht, also so vor zehn Jahren würde ich sagen, jetzt vielleichtschon ein bisschen länger her, bin ich dann so aus meinem Winterschlaf wieder erwacht.Ich war da einfach Softwareentwickler und hab mich immer ein bisschen gelangweilt,geb ich zu, ist ein bisschen vielleicht snobbistisch, aber hab ich.Und dann ging das. Plötzlich begannen Dinge zu gehen und die gingen hauptsächlichdeswegen, weil Grafikkarten, Die...Gamer im wesentlichen bezahlbar gemacht haben, plötzlich so viel Bums hatten,dass man Sachen machen konnte, die man vorher nicht machen konnte.Theoretische Überlegungen, die man schon früher gehabt hat, nämlich wie manein vernünftiges, normales Netz baut, die konnte man nicht umsetzen früher,weil es eben nicht genug Bums gab. Dann gab es genug Bums und im Wesentlichenhat das den Durchbruch gebracht.Wie so oft, man gibt einfach ein bisschen mehr Gas und plötzlich klappt das nicht.
Tim Pritlove 0:17:03
Ist dieses Gaming ja am Ende dann doch zu was gut gewesen?
Oliver Zeigermann 0:17:06
Absolut, also das Gaming, also es gibt da unterschiedliche Theorien,wir haben ja über die 23 gesprochen, Verschwörungstheorien, es gibt unterschiedlicheVerschwörungstheorien,die eine ist, hier steht Nvidia ist jetzt 8 mal so viel wert wie Intel,da kommen mir Tränen in die Augen, weil bevor das losging, sagte jemand zu mir,nahm ich zur Seite und sagte, pass mal auf, wenn du jemals Aktien kaufen willst,kaufst du Nvidia Aktien.Was soll denn das? Ich weiß gar nicht wie das geht. Das ist echt viele viele Jahre her.Jetzt bin ich gerade abgedenkt gewesen, aber was wollte ich denn jetzt eigentlichsagen? Wisst ihr noch was ich eigentlich sagen wollte? Helf mir mal.
Tim Pritlove 0:17:47
Naja, Grafikkarten, mehr Bums und es wurde dann lustig langsam,es wurde langsam ernst mit dem KI Gemumpel und all das wofür du dich vorherinteressiert hast fing auf einmal an zu funktionieren und dein Leben hatte auf einmal einen Sinn.
Oliver Zeigermann 0:17:57
So kann man es also, zumindest das, ich mein, ist jetzt echt peinlich,aber mein Berufsleben hatte dann wieder so einen Sinn, weil ich dachte,okay, dann können wir das alles wieder aufnehmen, gucken wir,was wir damit machen können.Und so ging das dann die letzten zehn Jahre, sag ich mal.
Tim Pritlove 0:18:10
Mhm.
Oliver Zeigermann 0:18:11
Genau. Und ich hab immer noch so einen leichten philosophischen Disziplin,also denke immer so drüber nach, was bedeutet das jetzt und weiß ich auch nicht,kann so ein System bewusst sein.Das ist aber eigentlich nichts wofür ich irgendwie bezahlt werde,sondern da denke ich nur so darüber nach, wenn mir langweilig ist.Achso, so kann man das sagen. Genau, das mache ich also beruflich.Maschinen lernen, Systeme zum Laufen bringen und darüber nachdenken,was kann man damit machen. Das ist mein Job.Achso und ich hab offensichtlich so diesen Videokurs, der ist inhaltlich gut,nicht dass ich den jetzt, ich meine der verkauft sich wie so natürlich irgendwie,ja nicht wie Blei in den Regalen,weil nach zwei Jahren oder nach drei oder nach vier ist das ja alles,kannst alles einstampfen, das ist echt ein großes Problem bei sowas,also du schabst da irgendwas und dann ist es im Prinzip, also wenn das erstmal beim Drucker ist, ist das eigentlich schon vorbei.
Tim Pritlove 0:19:05
Ja, das glaube ich.
Oliver Zeigermann 0:19:06
Tja, so.
Tim Pritlove 0:19:08
Nichtsdestotrotz, also beim Manning ist das ja erschienen.Das ist ja so einer dieser Spezialverlage für Programmierer,die ich eigentlich ganz gerne mag. Also da sind einige Bücher,die ich zuletzt gelesen habe erschienen und die machen halt auch schon ganz modernes Zeug.Also mit diesen Livebooks zum Beispiel, also ich lese gerade ein Buch,das in seiner, das bisher zweimal überarbeitet worden ist und jetzt gerade inseiner dritten Überarbeitung ist und das wird quasi während die Kapitel jetztfertig geschrieben werden schon, ist es schon nachlesbar.Das heißt ich lese es jetzt sozusagen in der noch nicht wirklich erschienenVersion Kapitel für Kapitel wie sie rauskommen nach und man kann das halt wunderbar im Browser lesen,der merkt sich immer wo man irgendwie war und funktioniert irgendwie alles schon erstaunlich.Dieses Web, langsam wird's zu was gut.Ja, naja gut, also super. Genau und wegen diesem ganzen,also wir haben ja zusammen schon mal einen Podcast gemacht, kann man ja auchmal drauf verweisen und zwar in meiner kurzen Serie, die ich mal zusammen mit O'Reilly gemacht habe.Der Kolophon Podcast, das kennen vielleicht manche von euch gar nicht,ist auf jeden Fall auch in den Shownotes und da haben wir uns auch über MachineLearning unterhalten und das war schon so ein bisschen bevor das alles so richtig losging.Also es zeichnete sich ab, dass es jetzt interessant wird,weil halt diese ersten Durchbrüche im Bereich Deep Learning stattgefunden habenund ich hatte auch vorher schon mal einen anderen Podcast gemacht,der war dann aber auch wirklich sehr zeitig, muss ich nochmal gucken wann der eigentlich war.2015 hab ich den gemacht, genau, Oktober 2015, ein CAE und das war so gerade als es so losging,so als auf einmal alle Katzen erkannt werden konnten auf Youtube und so,mit Katzen geht's ja los, ne.
Oliver Zeigermann 0:21:25
Das musste ja auch dringend gelöst werden, die Katzenerkenner,das hat uns ja schon ganz schön umgetrieben.
Ralf Stockmann 0:21:30
Der hat mich übrigens schwer geprägt, der Podcast. Hab ich schon ein paar malzu dem mit hier, Ulf Schöneberg, CRE 208. Da hab ich zum ersten mal das Licht gesehen.Als er diese Geschichte aus der Wikipedia erzählt, dass sie plötzlich merken,okay wir haben zwar die ganze Wikipedia reingefuttert, aber woher weiß diesesTeil plötzlich so viel, was da eigentlich so explizit gar nicht drin steht undworaus bildet sich das ab.Das hat mich alles so nervös gemacht, dass ich seitdem in der Tat das Thema verfolge.
Tim Pritlove 0:21:59
Ulf ist schuld.
Ralf Stockmann 0:22:00
Ich hab mal versucht Ulf einzukaufen für die Stabi sogar. Für unser CuratorMachine Learning Projekt. Aber es hätte nicht gelungen sozusagen.Es hätte nicht gelungen, erhätte zu dem Zeitpunkt dann schon ein besseres Angebot wieder abgestartet.
Oliver Zeigermann 0:22:14
Ja das Erstaunliche daran ist aber eigentlich, also wenn ich hier zu viel darüberlaber könnte ich es ja sagen,aber das Erstaunliche daran ist, dass für mich diese Durchbrüche,die es jetzt ja absolut und unbestreitbar gibt,dass das für mich eher ein Problem in meinem Job ist, also klingt ja eher überraschend,aber das liegt daran, dass dieses Chat-GPT-Zeug, habt ihr ja letztes Mal auchschon relativ viel drüber gesprochen, da haben jetzt alle das Gefühl,ah das ist ja im Wesentlichen gelöst, das kann das jetzt, das können wir jetztalle benutzen, das klappt und so.Und das ist aber praktisch letztlich nicht einsetzbar für die für sehr viele Fälle und das bedeutet,wenn jetzt Leute sagen, was können wir denn mit Maschinenlernen machen,dann ist das aber der Maßstab, den die Leute so spüren, die denken,ja wieso, das geht doch alles, das haben wir doch gesehen, das habe ich dochselbst ausprobiert, ich habe doch einen Account.Und dass es dann aber solche Sachen gibt wie, ja, aber das passiert in den USAin irgendwelchen Containern,da musst du deine Daten drüber schicken, die wollen für jeden Request so und so viel Geld haben,wenn du das nachtrainieren willst, ist es super schwer und so,also das ist nicht bedeutet, dass nur weil die das können und das in den USAin irgendeinem Ding rumsteht, bedeutet das nicht, dass es für jeden zugreifbarist und das ist gerade so die Herausforderung, die ich wahrnehme.Also ihr habt letztes mal glaube ich auch schon darüber gesprochen über so eineOpen Source Version, die wir uns alle wünschen, die aber überhaupt nicht nichtsichtbar ist. Ich sehe keine.Und ohne diese Open Source Version, die man vielleicht am besten Fall auch nochauf dem Rechner laufen lassen kann, der nicht irgendwie 100.000.Euro kostet und wo man nicht irgendwie zehn Experten braucht,um das hinzukriegen. Solange das nicht da ist, fühlt man diesen Durchbruch undalle fordern diesen Durchbruch von jemanden ein, aber der ist praktisch im Moment noch nicht umsetzbar.Zumindest nicht in der Art und Weise, wie wir uns das alle wünschen oder wiedie Leute, die davon hören, glauben, dass es möglich sein wird.Und das ist im Moment das Problem, weil es, man kann fast sagen,weil es so die Preise verdirbt. Also jetzt nicht den Preis im eigentlichen Sinne,sondern sowas wie, dass die Erwartungshaltung sehr hoch ist und man kann nichtliefern oder nur sehr begrenzt oder nur in speziellen Fällen.Das ist im Moment das, so wie ich es spüre. Also ich glaube wir merken alle,das geht richtig ab, wenn man jetzt irgendwie nur irgendwelche Nachrichten aufmacht,da ist ja immer irgendwas, irgendjemand hat irgendwas gefunden oder irgendwas ist besorgt oder.
Tim Pritlove 0:24:28
Klar, aber ich meine im Gegensatz zu so vielen anderen Hypes ist halt auch was dran.Es ist noch nicht so, dass jetzt irgendwie jeder gecheckt hat,woran jetzt im Einzelnen wie viel wirklich ist und was dann doch nur heiße Luftist, aber wir reden jetzt hier nicht über so ein totes Feld wie Big Chain oderso einen Scheiß, sondern das.
Oliver Zeigermann 0:24:49
Hast du gesagt, da hab ich nicht gesagt.
Tim Pritlove 0:24:51
Ja, aber ist ja so. Wie lange gibt's das jetzt, seit zwölf Jahren prophezeiensie uns, dass es irgendwie alles revolutioniert, was hat es bisher revolutioniert,es ist halt einfach gar nichts revolutioniert.Es ist einfach eine scheiß langsame Datenstruktur, die zu nix taugt.Das kriegen die Leute halt einfach nicht rein in ihre Körper und das Ding ist einfach mal durch.Eine interessante Technologie entdeckst du dadurch, dass du sehr schnell insehr viele Richtungen einen konkreten Nutzen entdeckst, der vielleicht erstmal nur Potenzial hat.Ich war jetzt zum Beispiel vor ein paar Tagen hier auf einer Konferenz.Der, dem Amaze Festival, ich weiß nicht ob ihr das schon mal von gehört habt,das ist so eine kleine Gamer Indie Konferenz,so leicht künstlerisch auch angehaucht und so weiter, da laufen halt jetzt nichtso die großen Development Studios rum und machen dicken Mucks,sondern das sind sozusagen die kleinen.Und ich hab ja persönlich, das werd ich ja auch nicht müde zu betonen,so mit Gaming so überhaupt gar keinen Kontakt.Also nicht, dass ich nicht schon mal ein Computerspiel gespielt habe,aber das geht einfach so in mich nicht rein.Trotzdem find ich halt solche Szenen interessant. Ich wollt mir mal diesen Eventanschauen, ich kenn ja auch ein paar Leute da.Einmal hab ich gesprochen und er meinte so,ja es wäre, kam natürlich zwangsläufig auf das ganze AI Thema,ne, und meinte ja, er hätte hier auch den ganzen Tag rumgelaufen,hätte mit allen gesprochen und nicht einer wäre dabei gewesen,der nicht schon berichtet hätte, wie sie TGPT,Large Language Models, in irgendeiner Form bei ihrem Game Design zum Einsatz bringen,sei es beim Coding, sei es beim Story Development, sei es in der künstlerischen Gestaltung,kann ich jetzt gar nicht so viel zu sagen, wo es überall konkret kam,aber es war einfach sozusagen nicht ein paar oder manche oder so,sondern alle sofort und jeder macht sich sozusagen auf die Suche,was man damit machen kannJeder von uns persönlich hat schon irgendwie die eine oder andere Anwendunggefunden und das ganze Zeug ist halt jetzt gerade mal ein paar Monate raus.Das ist für mich so der Marker für Has Impact.
Oliver Zeigermann 0:27:07
Absolut, also ich hab auch keinen Zweifel daran, dass es wirklich einen riesigen Impact gibt.Ist nur so, dass die Leute den jetzt einfordern und ich nicht liefern kann.Das ist vielleicht eher so das Gefühl.Und das ist vielleicht so wie diese Hype Cycle, man ist jetzt total aufgeregt und...Ist es dann aber irgendwann nicht mehr, weil du denkst, das geht ja alles garnicht, aber das sehe ich überhaupt nicht. Ich sehe das so wie das Internet tatsächlich.Vielleicht bin ich ein Spinner, kann sein, aber ich sehe quasi das fast schonso wie die Fortführung von dem Internet.Ich hab hier meine Kollegen mit ein paar Folien genervt, es gibt diesen Marshall McLuhan,den ihr vielleicht kennt, vielleicht nicht, der hat so gesagt,irgendwie das erste, was die Menschheit hier irgendwie richtig vorangebrachthat, war überhaupt sowas wie, was war das nochmal, Sprache haben glaube ich, Buchdruck.Das heißt man hat irgendwie sowas wie, man hat jetzt, kann sich nicht nur irgendwie,kann nicht nur was aufschreiben und so, sondern man kann das jetzt auch nochvervielfältigen und dann kommt das Internet,das heißt man kann richtig unheimlich viel austauschen, das heißt du kannstweltweit austauschen mit fast keiner Verzögerung, dich unterhalten.Und was ich da jetzt drauf gesetzt habe, ein bisschen vermessen,überhaupt dem irgendwas hinzufügen zu wollen, ist, dass ich das Gefühl habe,dass jetzt sowas wie große Sprachmodelle die Komprimierung oder die Abstraktionoder das Destillat aus dem Internet ist.Das heißt, man ist jetzt in der Lage, das ist jetzt alles da und jetzt fasstdu da so zusammen, nicht, dass du das Wissen irgendwie besser hast oder komprimiert,sondern die Fähigkeit, die da irgendwie drinsteckt.Das klingt jetzt ein bisschen so, als wäre ich vielleicht nicht ganz dicht oderso, so als würde das irgendwie total gesponnen sein, aber man sieht da,dass es irgendwie funktioniert.Das heißt, man hat alles genommen, was man so zusammengesammelt hat,wie die Menschheit, ins Internet gestopft, dann nennst du dieses Internet unddestillierst es oder komprimierst es irgendwie zu irgendwas,was dann offensichtlich in der Lage ist, was zu tun, was Leute beeindruckt.Und für mich ist es wirklich dieser nächste Schritt, das muss jetzt nicht Chat-GBTsein oder so, aber überhaupt diese, also die Idee gibt es ja schon lange,aber dass es funktioniert und...Guck mal, als hätte ich das mir vorher überlegt, habe ich aber nicht.Es ging diesmal wieder auch nur, weil man mehr Bums unterm Kessel hat,das heißt man hat gesagt, machen wir einfach ein bisschen größer,macht mal ein bisschen größer, dann wird schon gehen und dann ging das plötzlich.Also es gab wirklich so einen Punkt und auch wenn man wieder zurück will und sagt,wenn wir es ein bisschen kleiner machen oder ein bisschen weniger komplex,dann verliert man das auch wieder, dass dieses Ding wirklich so schlau ist,dass es quasi die Fähigkeiten aus dem Internet dann wieder verliert oder einfachnicht mehr so eindrucksvoll ist.
roddi 0:29:39
Ja, glaubst du, dass es tatsächlich ein Hype-Cycle jetzt auch ist?Also, dass wir in so einen Trough of Disillusionment dann reinkommen?
Oliver Zeigermann 0:29:47
Ich glaub wir sind knapp davor. Also zumindest so wie ich die Leute sehe,sehe ich eher enttäuschte Gesichter.Also ich jetzt schon. Also ihr seht vielleicht noch die aufgeregten,ich sehe die enttäuschten. Nicht weil das Schrott ist, sondern weil die Leuteda nicht rankommen. Die sagen wir wollen ran in die Buletten.Ist aber nicht. Oder man sagt okay für die Fälle oder für die Anwendungsfälle,wo du bereit bist, deinen ganzen Kram in die USA zu schicken,das ist für ganz viele Anwendungsfälle entweder überhaupt nicht erlaubt,also in die Krankenakten oder so schickst du darüber, wird man wahrscheinlichnicht machen oder ist es einfach zu teuer oder zu aufwendig und die Menschen,die das jetzt wirklich machen wollen, sind dann häufig ganz traurig.
roddi 0:30:24
Ich kenne da einige Legal Departments, die ganz nervös, Vorsicht Vorsicht Vorsichtpasst auf was ihr da in dieses Eingabefeld rein tut.
Oliver Zeigermann 0:30:35
Zurecht, zurecht, weil also ob ich da jetzt irgendwas eintippe,was ist ein guter Name für ein Hund oder so ist ja völlig egal,aber sobald du da irgendwas reinschiebst, was du nicht, wo du eben nicht möchtest,dass das in den USA landet, dann machst du das einfach nicht.
roddi 0:30:52
Naja gut, USA ist vielleicht nicht das Schlimmste, sondern das ist halt einfachOpen AI. Wer ist das? Kann man diesen Leuten trauen?Es war schließlich mal eine Firma, die Elon Musk gegründet hat.
Oliver Zeigermann 0:31:04
Ob man diesen Leuten trauen kann, weiß ich nicht. Aber ich hab das Gefühl,ich hab die Leute zumindest mal gesehen, also die kennen mich nicht,aber ich hab die mal gesehen und ich glaube, dass es Idealisten sind.Aber ich glaube auch, dass sie die Kontrolle über ihre Firma verlieren werdenoder schon verloren haben, eins von beidem.
roddi 0:31:22
Wenn irgendwo Geld drin steckt, dann hört der Idealismus meistens sehr schnell auf.
Oliver Zeigermann 0:31:26
Aber den glaube ich nicht, die sind solche Nerds, die...
roddi 0:31:28
Also dann übernehmen Leute, die nicht mehr ganz so idealistisch sind.
Oliver Zeigermann 0:31:31
Das glaube ich eher und dann sieht das schlecht aus. Und deswegen,ich glaube du hast es das letzte Mal gesagt, du möchtest Open Source Software.
Ralf Stockmann 0:31:38
Also die Grunddenke ist ja falsch. Wir brauchen noch eine Welt,in der man ihnen nicht trauen muss, weil es eben einfach genug freie Hand ist.
Oliver Zeigermann 0:31:46
Genau, aber die Welt interessiert sich meistens nicht dafür,was man möchte. Das wollen wir aber.
Ralf Stockmann 0:31:50
Also ich hab im Chat jetzt gerade mal hier, was gerade ja so rum geht,dieses Hugging Face, aus dem Hugging Face Universum,die haben ja jetzt auch wirklich hier ein eigenes Large Language Model publiziert,hast du dir das angeguckt, was ist da falsch dran, also ja es ist bei weitemnoch nicht so gut wie ChatGPT, aber gefühlt so mehr als anderthalb Jahre hängensie auch nicht hinterher, also das ist jetzt nicht, da ist jetzt keine Potenz dazwischen.
Oliver Zeigermann 0:32:17
Ja, also das Ding, dieses was du da jetzt geschickt hast, kenne ich nicht,habe ich nicht ausprobiert, müsste ich mir angucken, was typischerweise an diesenModellen schlechter ist,also wie gesagt, kann ich nicht sagen, also was häufig schlechter ist,ist dass sie nicht so gut optimiert sind für eine Unterhaltung,ob das so jetzt so ist oder nicht, weiß ich nicht.Die sind sehr schwer zu hosten, das gilt natürlich auch für das Chat-GPT-Ding,das ist auch im Prinzip, weiß gar keiner, wie das überhaupt,also wie OpenAI dieses Ding überhaupt zum Laufen bringt, wissen wir nicht.Da wird's wahrscheinlich so ähnlich sein, das weiß ich wie gesagt nicht,weil ich dieses Ding persönlich nicht kenne.Ich vermute und das weiß ich aber nicht, im Gegensatz zu Chat-GPT wirst du wahrscheinlichauch nicht so wie Browser suchen darin integrieren können oder Plugins,das weiß ich nicht, vermute ich einfach nur.Und häufig und das ist wie gesagt müsste man müsste man alles mal ausprobierenist es dann am ende nicht so gut wie das was die von oben her haben wahrscheinlicheher nicht nicht weil das modell irgendwie an sich schlechter ist also quasidie architektur schlechter sondern ich vermute das,sondern weil die weil die datenbasis schwächer oder anders ist aber wie gesagtdas ist das spekulation.
Ralf Stockmann 0:33:27
Gucken wir doch mal bei der Datenbasis. Also was hätten wir denn quasi am Freien?Wir haben das Internetarchiv. Das ist schon mal nicht nichts.
Oliver Zeigermann 0:33:35
Das ist gut, ja.
Ralf Stockmann 0:33:36
Da ist schon mal eine ganze Menge drin, wenn man da mal in die Keller der Kirchegeht und die Festplatten mal rauszieht.Dann haben wir sowas wie Google Books. Da würde man ja sagen, das gehört ja Google.Ja, nicht so ganz. Das heißt also, wenn es die Bayerische Staatsbibliothek,ihre eine Million Bücher von Google Books hat digitalisieren lassen,haben sie für wissenschaftliche Verwendungszwecke die Volltexte von Google bekommen.Das heißt, wir haben zu einer Million deutschen Büchern die Volltexte in Münchenliegen, mit denen man was anfangen kann. Und wenn man ganz wild drauf ist,kann man auch so eine Quelle wie Sci-Hub nochmal vielleicht irgendwie so anzapfen.Ja, dann hast du also alles an relevanter Wissenschaftsliteratur der letzten30 Jahre noch mit drin in deinem Modell.
Tim Pritlove 0:34:15
Also ich sehe nicht, dass, falls jemand nicht weiß was Sci Up ist,das ist das Pirate Bay der wissenschaftlichen Paper.
Ralf Stockmann 0:34:22
Ja genau da würde ich natürlich keinesfalls empfehlen das in so einem Modelleinzustehen. Niemals würde ich das tun.Ich sehe gar nicht so die große Lücke. Das Training ist ein Problem aber dawürde ich mal sagen, lass uns kurz den Punkt zu Ende machen.Beim Training würde ich sagen...Hoffe dass wir hier eine ähnliche entwicklung sehen wie bei open street map,wo du also auch lange jahre einegroße kluft hattest zwischen google maps und dem was eben open street gemachthat und google ist dann aber eben mit autos herumgefahren und hat street viewgemacht und das fanden dann nur die deutschen aber immerhin die deutschen danngar nicht mehr so knorkel und plötzlich haben sich alle mit ihren gps devicesim rucksack irgendwie auf die norddeutschen Inseln gemacht, um die auch nochirgendwie durch zu kartografieren.Und irgendwann gab es so ein Tipping Point, wo du gesehen hast,okay mittlerweile gibt es sogar ein ganz gutes Design für OpenStreetMap unddie API ist eigentlich ganz prima und ich kann das genauso gut in meine Webseiteneinbauen wie vorher meine Google Maps.Jetzt ist das zumindest für uns im öffentlichen Dienst völlig selbstverständlich,dass wir nur OpenStreetMap reinsetzen.Und es ist immer noch in Details vielleicht schlechter, in anderen Bereichenist es aber mittlerweile mindestens genauso gut oder in endlichen Bereichennoch besser als Google Maps.Und ja dieses Race hat ein bisschen gedauert und gerade irgendwie der Wissenschaftssektorhätte da viel mehr Geld reinstopfen können. Ja wo waren denn die ganzen GeoinformatikerInnenzu dem Zeitpunkt eigentlich?Ja da hätte man also sicherlich irgendwie DFG hätte ja sonst was aufsetzen könnenoder BMWF oder sowas. Und ich sehe nicht warum das jetzt nicht der Fall seinkönnte, weil ich glaube die Daten haben wir so und für Training muss man sichdann vielleicht mal was einfallen lassen.
Tim Pritlove 0:35:56
Okay, also Ralf, ganz klar, du bist schon jetzt wieder auf der Reise nach derultimativen Open Source Lösung,damit wir nicht zu viele Gesprächsthemenkarten auf einmal auf den Tisch legen,würde ich ganz gerne noch einen kleinen Wrap-Up machen und dann vielleicht nochmalso ein bisschen fokussieren, vielleicht kommen wir zu solchen Themen auch nochmal.Ich glaube wir müssen die anderen Themen sowieso nach hinten schieben,wir bleiben jetzt einfach mal bei diesem ganzen Machine Learning.So, um erstmal das mit dir abzuschließen,Olli bist ja auch bei der Open Knowledge Foundation verdingt.
Oliver Zeigermann 0:36:35
Nein, nein, nein, ich war bei einer Firma angestellt, die heißt auch Open Knowledge,das bin ich aber nicht mehr. Ah ok.
Tim Pritlove 0:36:41
Jetzt bist du wieder selbstständig.
Oliver Zeigermann 0:36:43
Ja genau.
Tim Pritlove 0:36:43
Ok gut. Das wollte ich nochmal abgehakt haben so und genau also du bist jetztquasi freischaffender ML Werker.Kann man das so sagen. Kann man das so sagen. Aber was wir unbedingt noch klärenmüssen ist, warum ist dein Twitter Account, warum heißt der DJ Kord Rose?
Oliver Zeigermann 0:37:06
Also, das ist irgendwie schon ganz lustig, also, ähm, also...Also ich weiß es ehrlich gesagt gar nicht mehr so hundertprozentig.Das hat sich irgendwann so ein... ist irgendwie so passiert.
Tim Pritlove 0:37:19
Warst du mal DJ?
Oliver Zeigermann 0:37:20
Ich war nie DJ. Ich hab aber mal früher sehr erfolglos Musik gemacht.Da kommt diese DJ-Geschichte irgendwie rein und ich hab zu Studentenzeiten,hab ich immer so 5 Mark Korthosen von Penny getragen. Wirklich, das war...Ich dachte damals, das wär in Ordnung. Anders kann ich mich jetzt nicht rausreden.Und dann kommt die Korthose her.Und irgendwie ist es so geblieben und hab ich irgendwann nicht mehr drüber nachgedachtund dann war ich überall DJ Korthose und dann konnte ich das nicht mehr ändernund dann hab ich gehofft, keiner fragt jemals wieder. Es ist nicht gelungen. Also es ist immer so.Offensichtlich hat das leider nicht geklappt.
Tim Pritlove 0:37:55
Verstehe. Aber du bist Nerd genug um hier beim Podcast mit dem Handtuch aufgelaufen zu sein.
Oliver Zeigermann 0:38:01
Ja, hab ich mit. Also… Es ist Krümmelmonster drauf, ihr seht das, ne?
Ralf Stockmann 0:38:05
Sehr schön.
Oliver Zeigermann 0:38:09
Krümmelmonster ist mein Vorbild.
Tim Pritlove 0:38:11
Ich könnte ja jetzt behaupten, dass wir alle gerade ein Handtuch um uns herumgeschlungen haben, das haben wir aber nicht.
roddi 0:38:18
Frag in drei Monaten nochmal.
Tim Pritlove 0:38:19
Wieso, was ist in drei Monaten?
roddi 0:38:21
Richtig Sommer.
Tim Pritlove 0:38:21
Achso, ja.
Oliver Zeigermann 0:38:23
Wäre das schon Herbst?
Tim Pritlove 0:38:28
Naja ich hab ja eingangs unser aller Freund Douglas Adams eingespielt und ichhab mich ganz bewusst nicht beim Anhalter vergriffen, das wäre ein bisschenzu naheliegend gewesen.Aber wenn man so älter wird, merkt man, es gibt dann immer mehr Leute,die kennen Douglas Adams nicht.Ich glaube das dürfte in unserer Hörerschaft eine sehr überschaubare Minderheit sein,aber ich denke, dass es schon nochmal ganz wertvoll ist, das vielleicht auchnochmal kurz aufzugreifen, weil heute ist ja Towel Day und ich bin nicht einverstanden mit dem Datum.Also das ist ja so eine Hauruck-Aktion gewesen,weil so ein paar Leute der Meinung waren,jetzt müssen wir sofort, sofort nachdem er gestorben ist, ihm gedenken,ja da bin ich auch schwer dafür, aber dann haben sie sozusagen den erstbestenbeliebigen Tag genommen, der gerade irgendwie auf dem Kalender erschien,Der so überhaupt nichts mit Douglas Adams oder seinem Werk oder irgendwas zu tun hat, nicht der 42.Tag, nicht seinen Geburtstag, nicht seinen Todestag, gar nichts desgleichen,was ich ehrlich gesagt nicht gut fand.Deswegen hatte ich so mit dem Towel Day immer so ein bisschen meine Probleme,zumal ich ja auch eher finde,dass es ein, also ich weiß nicht, das mit dem Handtuch ist schon irgendwie ganzlustig, aber für mich auch jetzt nicht unbedingt so das definierende Element.Und ich hatte tatsächlich mal die Gelegenheit ihn zwar nicht persönlich kennenzulernen,aber ich war zumindest mal bei einem seiner Live-Lesungen und zwar genau beiso einer wo er aus diesem Buch vorgelesen hat, was wir jetzt hier am Anfanghatten, nämlich Last Chance to See.Kennt ihr das eigentlich?
roddi 0:40:20
Die letzten ihrer Art.
Tim Pritlove 0:40:21
Ich hab's mal gelesen, kenn's nicht. Ich finde das ist einfach,das ist echt eins der lustigsten Sachen, ja also er hat so viele lustige Sachengemacht, ich will die jetzt gar nicht in so eine Reihenfolge stellen,aber Last Chance to See ist wirklich ein großes Werk.Da war jemand so klug und hat ihn auf eine Weltreise geschickt zu den letztenihrer Art. Also sozusagen eine Reise zu aussterbenden Tieren.Also Arten, die gefährdet sind auszusterben, sagen wir es mal so.Unter anderem eben diesen Komododrachen, den er eingangs beschrieben hat unddas Buch ist einfach zum Wegwerfen großartig lustig.Also man liest diese Storys, wie er einfach diese Viecher charakterisiert undihre Umgebung und all das und das ist einfach ganz toll.Außer dem Anhalter und dem elektrischen Mönch.Ist das so für dich eines einer ganz großen Werke? Kann ich jedem empfehlen da mal reinzuschauen.Und my personal favorite dann allerdingsnochmal so ganz nebenbei ist The Meaning of Life. Kennt ihr das?
roddi 0:41:28
Ja, das fand ich so ein bisschen hmm.
Tim Pritlove 0:41:30
Das fandst du ein bisschen hmm?
roddi 0:41:32
Ja, das fand ich ein bisschen hmm.
Tim Pritlove 0:41:34
Ich fand das überhaupt nicht ein bisschen... Ich fand das fantastisch.Du kennst es gar nicht?
Ralf Stockmann 0:41:38
Ich kenn's glaube ich nicht.
Oliver Zeigermann 0:41:39
Ich kenn's auch nicht.
Tim Pritlove 0:41:40
Also The Meaning of Life ist so ein kleines Minibuch,das ist nicht groß, und man kauft das so und da ist so ein Aufkleber drauf,steht drauf, this book will change your life und es handelt sich dabei um soeine Art Nachschlagewerk, in dem Worte erklärt sind von Dingen und Vorgängen,die wir alle kennen, für die es aber keinen Namen gibt.Und der Wortschatz aus dem sie sich bedienen oder der Namensraum aus dem sie sich bedienen,um diesen Dingen die keinen Namen haben einen Namen zu geben,damit man sie in einem solchen Verzeichnis auch ordentlich alphabetisch aufführenkann, sind kleine englische Ortschaften.Also sie haben sich sozusagen irgendwo aus Großbritannien, Nordirland und so weiter,halt so British Islands, irgendwelche Orte herausgenommen,die irgendwie merkwürdig klingende Namen haben,die dann aber dann doch irgendwie passen, um so Dinge zu beschreiben wie eine Gruppe von Autos,die auf der Autobahn alle mit einer konstanten Geschwindigkeit unterwegs sind,weil eins von ihnen ein Polizeiauto ist. So eine Sache zum Beispiel.Oder das Wort to thrub, es gibt da so einen kleinen Ort der heißt thrub.Und to thrub ist das Verb, das ist der Vorgang,in dem man ein Lineal nimmt, es so halb auf die Tischkante legt und die andereSeite anschlägt, which makes the other end go brr brr brr brr brr brr.Heißt es dort im Buch. Und es ist ein einziges Vergnügen, sich durch diese Dingedurchzulesen und einfach die ganze Zeit Sachen zu finden, die man kennt.Und irgendwann, nachdem du dann so mehrere Seiten gelesen hast,denkst du dir dann so, aber was in aller Welt heißt eigentlich LIV?Weil das Buch heißt nicht The Meaning of Life, sondern The Meaning of LIV. L E F F,Was ist es? Live a book, a book which contents are totally belied by its cover.Especially if there is a sticker on it that says this book will change your life.Und da hat er mich dann final, das hat er auch nicht alleine geschrieben,sondern mit jemand anderem, dessen Namen ich jetzt gerade nicht erinnere.
Oliver Zeigermann 0:43:59
John Lloyd.
Tim Pritlove 0:44:00
Genau, John Lloyd. Also ich liebe diesen Humor und ich mochte ihn von Anfangan und es ist so schade, dass Douglas Adams so früh gestorben ist.Er war der erste Apple User Englands.Er war der allererste, der irgendwie einen Macintosh hatte und der hat schonin den 90ern sich schon darüber echauffiert,warum Hotels kein Internet und keine Internetbuchsen haben.Das finde ich so faszinierend, der Typ hat einfach auch total in der Zukunftgelebt, ich meine er hat die Zukunft ja auch beschrieben, er hat mit dem Anhalterquasi die Wikipedia beschrieben bis ins Detail.Und auch all die anderen Selbstverständlichkeiten in diesem Buch werden in zunehmendemMaße auch Selbstverständlichkeit bis hin,jetzt kommen wir auch mal wieder zu unserem Thema zurück, bis hin zu dieserSelbstverständlichkeit wie man mit so Maschinen redet und was sie alles so fürAuskünfte geben können.Der Gipfel natürlich Marvin, der manisch-depressive Roboter,der eigentlich alles auch weiß über das Universum und alle Antworten geben könnte,einschließlich der Antwort auf die Frage nach dem Leben des ganzen Universumsund dem ganzen Rest, wofür sie riesige Computer bauen.Marvin hätte die Antwort, aber sie fragen ihn halt einfach nicht.Stattdessen bitten sie ihn, Schleuse Nummer 3 zu öffnen.Ja, das sind Dinge, die man zu mir sagt.I can't do that Dave. Und diese ganze Dummheit der Menschen ist einfach so wunderbarencapsulatet in dieser Story,dieser ganze Wahnsinn der Welt, der sich auf diesen Seiten so wunderbar abspieltund insbesondere wenn es halt so um Maschinen geht und dieses Wesen von Maschinen,Marvin ist ja quasi auch der Katalysator zu diesem Wahnsinn.Also auf der einen Seite diesen übermäßigen Fähigkeiten aber auch so dieserprogrammierten Dummheit,da unterhält er sich irgendwie mit diesem Raumschiff und stellt ihm sozusagenseine Ansichten über die Welt dar,woraufhin das Raumschiff Selbstmord begeht, zufälligerweise die anderen Protagonistenim Buch in dem Moment irgendwie vor Vernichtung rettet dadurch so.Also ich könnte jetzt stundenlang noch weiter raven, aber das ist halt einfachso in diesem Genius von Douglas Adams drin gewesen,der einfach eine unglaubliche Gabe hatte, in die Zukunft zu blicken,was wir denn eigentlich von unseren Maschinen so verlangen und wie wir auchmit ihnen interagieren wollen.
Oliver Zeigermann 0:46:37
Absolut.
Tim Pritlove 0:46:38
Also die Nutrimatik, der du einfach von Tee erzählst,weil die Plöre, die da rauskamen, war halt nicht geil und dann Asadent nimmtsich dann Stunden Zeit dieser Nutrimatik alles zu erzählen,also bei diesem Priming, wie so Chat-JPG, ich möchte gerne, dass du jetzt Teemachst und dann erzählt die über den Anbau und irgendwie Teespitzen ernten undalles, was man halt so wissen muss zum Thema Tee.So und dann kommt auch irgendwann ein ganz hervorragender T raus,Problem ist halt nur die Rechenleistung des Raumschiffes ist so weit belegt,dass es sich leider gerade nicht gegen den Angriff der Feinde wehren kann,so aber ich fand das eine schöne Koinzidenz jetzt diesen Towel Day und das Gedenkenan Douglas Adams, der eigentlich schon alles wunderbar beschrieben hat.
Oliver Zeigermann 0:47:30
Finde ich, kann ich total gut nachvollziehen. Ich hab auch wegen dem Towel Day,hab ich heute mal geguckt, was können wir da sonst noch so rausziehen und esgibt wohl, das hab ich leider nie selbst gelesen, es gibt so eine DetektivnachfolgeGeschichte, kennt ihr die irgendwie?
Tim Pritlove 0:47:43
Ja, der elektrische Mönch.
Oliver Zeigermann 0:47:46
Ne, dieses holistische.
Tim Pritlove 0:47:47
Der Trenti. Genau, genau.
roddi 0:47:51
Der erste Band und der zweite ist dann der elektrische Mönch.
Oliver Zeigermann 0:47:54
Ah, okay, okay, okay.
roddi 0:47:56
Also es ist so eine Serie, da sollten, zwei sind erschienen,dritter sollte rauskommen, hatte er in Arbeit und es gibt tatsächlich von denFragmenten, die er geschrieben hat, gibt's eine Veröffentlichung.Das ist auch ganz spannend zu lesen, was wäre denn dabei rausgekommen,wenn er das fertig geschrieben hätte. Aber, ja.
Oliver Zeigermann 0:48:16
Weiß man eben nicht, ne?
roddi 0:48:17
Nee, ich finde ja Dirk Gently, die beiden Dirk Gently Bücher mit das genialste,was er je geschrieben hat.Ganz ehrlich. Also das, dagegen ist ja der Anhalter nur Slapstick.Aber dieses Dirk Gently, also gerade der Band, wo er auf der letzten Seite allesauflöst, was in diesem Buch vorkommt.Im Hinterkopf hast du immer dieses Sofa, da ist dieses Sofa im Treppenhaus.Warum ist denn dieses Sofa im Treppenhaus? Und dann kommt es nicht mehr vordas Sofa und ganz am Ende, auf der letzten Seite, ach deshalb.Und es hat aber eigentlich mit der ganzen Geschichte auch nicht so viel zu tun.Aber du hast ständig dieses nagende Gefühl, da war doch noch dieses Sofa.Warum ist denn da dieses Sofa, das da nicht aus dem Treppenhaus rauskommt?
Oliver Zeigermann 0:49:02
Und warum ist es da?
roddi 0:49:03
Ja, das verrate ich jetzt nicht. Du musst es selber lesen.
Oliver Zeigermann 0:49:06
Okay, dann lese ich das selbst.
roddi 0:49:07
Keine Spoiler. Aber ey, es ist wirklich ganz großartig.
Oliver Zeigermann 0:49:13
Also ich komme da drauf, also ich habe es nicht gelesen, ich hätte es lesensollen. Es gibt eine Software, die sie da bauen und gebaut haben, die heißt Reason.Erinnert ihr euch daran? Alsodas habe ich nur gelesen, das habe ich hier vor mir. Wer hat das gebaut?Eine, irgendjemand von diesen Typen.
Tim Pritlove 0:49:27
Von welchen Typen?
Oliver Zeigermann 0:49:29
Einer von diesen Typen aus diesem Buch, also es tut mir total leid.Also hier, Richard talking to Rack about the murdered Gordon Wayce carer.Und es geht um eine Maschine, der Riesen, der kannst du nämlich voll das machen,du sagst, was du gerne vorhersagen möchtest.
Tim Pritlove 0:49:42
Aber ist das jetzt echt oder erfunden?
Oliver Zeigermann 0:49:43
Das ist echt und aus diesem Buch. Aus diesem Buch.
Tim Pritlove 0:49:46
Diesem Buch.
Oliver Zeigermann 0:49:47
Dirk Gentiles Holistic Detecting Agency, also aus dem Ding,also ihr erinnert euch auch nicht mehr, gut, denn dieses Stück Software,was das wohl kann ist, dass du dem sagst,folgendes möchte ich gerne begründen,gib mir mal die Argumente dazu und dann ist ein Witz da gemacht,dass nämlich das Pentagon das kauft und dann das selbst verkauft und dass aberdie Air Force nur die alte Beta Version hat,weil sie für nicht vernünftig argumentieren und die Flugzeuge schrottig sindund jetzt hab ich das mal ausprobiert,weil ich dachte, Wie weit komme ich denn, wenn ich so tue,als wäre Chat-GPT dieses Programm und habe dem Ding gesagt, begründe mir dochmal, warum wir mehr Langstreckenflüge machen sollten und warum Fliegen an sicheine total coole Sache ist und dass das doch eigentlich gar kein Problem ist.Obwohl das Ding mir jetzt immer sowas gesagt hat wie, na, also man muss schonauch irgendwie bei den Tatsachen bleiben,aber wenn man das jetzt wirklich so begründen wollen würde,warum, war das Ding also in der Lage, eine ganze Reihe von echt,also relativ brauchbaren Punkten mir um die Ohren zu hauen, die ich jetzt erstmalohne weiters nicht hätte entkräften können, ich mach das hier gerade mal auchfür mich nur, also warum sind Langsteckenflüge so toll?Und es ist sowas wie, also das macht nur zwei Prozent aus,ist nicht so schlimm, ist das erste, wo man denkt, okay, gut und dann sowas wie,wenn man irgendwie mehr Flüge hat, dann muss man mehr Technik reinballern,dann werden wir viel besser und wir kriegen das schon hin und dann,außerdem hat die Flugindustrie ja gesagt, dass sie alles, dass sie alles kompensiert,genau und auch weniger macht und so und außerdem sowas wie,ist die Berechnung auch gar nicht fair und das Ding ist relativ gut da drin,das zu machen, also hier Advocatus Diaboli zu machen und zu sagen,ich kann dir das alles geben, ich gebe dir die Argumente auch für Sachen,die, also am Anfang steht, das kommt alles nicht so richtig hin,weil die Fakten sind, aber es ist schon irgendwie nicht so cool und am Endesagt es das Ding nochmal, aber quasi es macht es dann doch.Und dieses Ding, dass man vielleicht, ich wusste ja gar nichts davon,von dieser Idee, Aber da hat irgendjemand eine Idee gehabt vor 20 Jahren undjetzt gibt's das eben einfach so.Also ich meine, wie cool wäre das denn, wenn es diesen Menschen noch geben würdeund der uns jetzt immer noch mal sagen würde,was jetzt in 20 Jahren ist und wir würden ihm ja zerglauben, weil wir gesehen haben,guck mal, er hatte irgendwie scheinbar diese Fähigkeit, sag uns doch mal,was jetzt so passiert, wenn er sagen würde, ja hier Fluten und Wüsten,dann wären wir wahrscheinlich nicht so cool drauf, aber Ist ein großer Verlust,so wird man das doch sagen können.Er hatte offensichtlich die Fähigkeit, sich Dinge zu überlegen,die irgendwann dann Wahrheit werden. Fand ich ziemlich cool. Cool.
Tim Pritlove 0:52:20
So.
Oliver Zeigermann 0:52:20
Fühlen wir nur so ein, weil heute ist ja der Tag.
Tim Pritlove 0:52:24
Heute ist der Tag. Genau.Jaja, die Zukunft.
Oliver Zeigermann 0:52:30
Also hier sagt jemand, der hat es nicht so mit Fakten von der FDP für die Begründungihrer Standpunkte genutzt.Ich glaube wie gesagt, wenn man es so will, dann hilft es einem mit jedem Standpunkt.Also kann man machen, wie man möchte.
Tim Pritlove 0:52:46
So was mir aber jetzt erstmal ein bisschen, gerade auch jetzt mal diese ganze Debatte,diese ganze Metadebatte, die wir ja hier schon geführt haben zu diesem Thema,vielleicht mal ein bisschen zu unterfüttern, wird mich eigentlich erstmal soein bisschen der Maschinenraum interessieren,weil es wird eigentlich viel über Ergebnisse und User Interfaces gesprochen,aber relativ wenig über was sind denn nun eigentlich gerade die Werkzeuge oderdie Werkzeuge, die sich in den letzten Jahren so hervorgetan haben,um diese ganze Bewegung überhaupt echt werden zu lassen.Du hast ja auch schon gesagt so vor zehn Jahren ging's los,also so 2013, war das eigentlich vor zehn Jahren als dann dieser Geoffrey Hinton,dieser Akademiker dann zu Google gegangen ist und die Katzen ausgepackt hat?Das muss so irgendwie vor zehn Jahren gewesen sein glaube ich.
Oliver Zeigermann 0:53:43
Also dieser Mensch hat ja dann nie aufgehört daran zu glauben und hat auch immer weiter gemacht.Also das war ja aber nicht nur er. Also unter anderem die Leute,die jetzt OpenAI gegründet haben, waren früher auch in seinem Team oder in Teams,die frühere Durchbrüche quasi hingekriegt haben.Das war aber nichts, was irgendwie die Öffentlichkeit mitbekommen hat,das war eher was, was Techniker mitbekommen haben und gesehen haben so,ach guck mal, der ganze Kram geht jetzt ja. Also sowas wie zum Beispiel,das fing ja an mit Bildverarbeitung eher.Das war so, das hat man bis, vielleicht war es nicht 2013,das müsste ich jetzt nochmal genau gucken, vielleicht war es eher zwölf oderso oder vielleicht noch früher, aber da hat man das ja eher mit so klassischenVerfahren gemacht, eher so Engineering, dass man so überlegt hat,ah da ist ne Kante und da ist noch ne Kante und dann hängen die irgendwie zusammen.Und dann lass mal drüber nachdenken.Und da ist man relativ weit mitgekommen, aber nicht so weit.Und dann haben andere Leute gesagt, das machen wir jetzt ganz anders.Wir geben einfach eine ganze Reihe von Bildern und sagen so,hier, so sieht meinetwegen jetzt ein Auto oder eine Katze aus und bauen einModell oder eine Architektur für ein neuronales Netz, das stark genug ist, das lernen zu können.Und wie das dann funktioniert, davon müssen wir uns verabschieden,das zu verstehen, weil das können wir nicht mehr.Ist so. Also es ist jetzt natürlich noch viel schlimmer geworden.Und dann hat das funktioniert. Und Leute haben gesagt, ja guck mal,wenn das funktioniert, war es nicht so schlimm, dass wir nicht verstehen,warum es nicht funktioniert.Haben wir vorhin auch schon darüber gesprochen, es hat funktioniert vor allenDingen, weil Also man hat die Architektur ein bisschen besser hingekriegt,aber hauptsächlich war mehr Bums.So und dasselbe ist jetzt nochmal passiert, der Unterschied ist das zum einendas ja früher Bilder waren und jetzt kann man das aber mit auf Textebene machenauf einer Qualität die offensichtlich anders war.
Tim Pritlove 0:55:26
Aber mit diesem mehr Bums, also ich meine so ganz so einfach war es in meinerErinnerung jetzt auch nicht,also das Deep Learning, also vielleicht mal um Begriffe mal ein bisschen klar zu machen,also AI ist nochmal so der Kampfbegriff schon seit den 50er Jahren,Das war so quasi der Aufbruch auch und lustigerweise war das ja auch,ging das ja von den Linguisten aus.
Oliver Zeigermann 0:55:50
Okay, das war mir nicht bewusst.
Tim Pritlove 0:55:51
Ja so Minsky und so weiter, also die wollten quasi,also es waren ja so, die Linguisten, Sprache verstehen,Semantik, Syntax, was ist denn sozusagen Sprache und diese Vorstellung,was ist Intelligenz, War ja immer so ein bisschen daran geknüpft,ja intelligent ist was Sprache hat und besonders intelligent ist was Spracheversteht und sozusagen in diesen Metadingen auf einmal sich mit Gedanken und Ideen beschäftigt.Das ist ja sozusagen das was unsere Vorstellung von Intelligenz ist und wo wirdann eben auch bestimmten Lebewesen diese absprechen.Ist mal so ganz grob daher gesagt, aber das war jetzt damals der Trigger unddann sind sie ja auch losgegangen und interessanterweise ist ja auch dann dieEntwicklung der Programmiersprachen, Dadurch erst so richtig in Gang gekommen.Also solche Entwicklungen wie LISP, LISP als Funktionale Poemiersprache,ist quasi entwickelt worden, einfach um diese Idee der künstlichen Intelligenzin irgendeiner Form zu bedienen.Also man suchte sich erstmal seine Werkzeuge und das war eigentlich mit daserste Werkzeug, was dabei abgefallen ist.Hat nicht unmittelbar zur künstlichen Intelligenz und den Durchbrüchen beigetragen,aber zu sehr vielen anderen Dingen.Und so Dekade um Dekade ging's dann halt immer weiter und schnellere Maschinenermöglichten dann halt irgendwann immer wieder diese Dinge.Das mit dem Machine Learning in meiner Wahrnehmung ging so vor 20 Jahren irgendwie so richtig an Start.Das weiß ich aber jetzt selber ehrlich gesagt nicht, das mag auch schon früherein Begriff gewesen sein,aber dass man jetzt so konkret das als Forschungsbereich benannte im akademischenBereich, hab ich so vor zwei Jahrzehnten das erste Mal so mitbekommen,dass Leute sich da so engagiert haben.Und da war das eben noch nicht unbedingt jetzt wieder so unmittelbar mit diesemIntelligenzbegriff verknüpft,sondern er versuchte erstmal den Ball ein bisschen flach zu halten und zu sagen so,okay wir versuchen jetzt in irgendeiner Form lernen, Training,also diese ganzen Grundbegriffe wurden da überhaupt das erste Mal so ein bisschenaufs Gleis gesetzt und wir versuchen jetzt erstmal Algorithmen zu entwickeln,die das überhaupt erstmal abbilden können.Die in irgendeiner Form aus Daten irgendeine Resonierung ableiten können,um daraus dann andere Schlüsse zu ziehen.Und auch das kam so richtig nicht von der Stelle bis dann,und das ist jetzt so ein bisschen aus meiner Erinnerung, Du kannst ja mal sagen,wie du das siehst, Joffrey Hinten und Konsorten vor zehn Jahren irgendwann ebendann diesen Begriff des Deep Learnings auch mit eingebracht haben,der halt im Wesentlichen, und da kommt das mit deinem Bums schon mit rein,einfach gesagt haben, wir haben jetzt diese Kapazitäten, wir staffeln einfachdiese Netze jetzt sehr viel tiefer, als wir das bisher auch nur versucht haben.Und bam auf einmal fingen die Chose an Ergebnisse zu liefern die man so vorhernicht gesehen hat. Das ist so ein bisschen jetzt meine Sicht der Dinge, wie siehst du das?
Oliver Zeigermann 0:58:52
Ich glaub das kommt schon ganz gut hin. Also was mir dazu immer noch einfälltist, dass ganz viel von diesen Sachen die wir jetzt Maschinenlernen oder KInennen, das hieß früher Statistik, also ganz viel Verfahren die ich tagtäglichbenutze, sind für… Wie unsexy also.Unsexy, genau das ist ja das Problem. Also ganz viele Verfahren,die ich fast taktiklich benutze, prinzipiell Component Analysis,also Hauptkomponentenanalyse, total unsexy, ist glaube ich 100 Jahre alt undda gab es ja nicht mal Computer,das heißt die Leute, die es entwickelt haben, haben Verfahren gehabt,statistische Verfahren, die waren total mächtig und ganz viel davon haben wirKI Menschen jetzt übernommen und haben gesagt,das ist jetzt aber Maschinenlernen, Einfach weil es cooler ist,weil mit Statistik kannst du jetzt ja so ziemlich jeden verscheuchen,wenn du sagst ich bin, ich will jetzt mal über Statistik reden,dann sagen die Leute, ich nicht, aber wenn du sagst das ist aber voll KI und krass,dann hast du einen ganz anderen Hebel, weil die Leute sagen ja cool,wenn irgendwas künstlich schlau ist, dann stelle ich mir vor entweder es istvoll cool und kann was tolles oder das will nicht bezahlt werden und ich schlafeund meckert nicht und kann aber auch Arbeit für mich machen.Das heißt, an der Stelle ist KI für mich eher so was wie ein Marketing-Termund was das im Moment gerade ist,ist ja auch total, das verändert sich ja,also KI in den 90ern war vielleicht so was wie, da konnte ein Ding Schach spielen,da hat man gesagt, boah, es schlägt jetzt den Weltmeister und wenn du jetztLeuten sagst, ja, das Schachprogramm schlägt den Weltmeister,dann sagen die, ja klar, das wissen wir und dann ist es überhaupt nicht mehrsexy, dann ist es überhaupt nicht mehr spannend.Aber zu der Zeit hat man quasi dieses Schachspielen aus der Domäne der Menschengenommen und gesagt, guck mal, da seid ihr jetzt nicht mehr die Coolen,sondern das sind jetzt wir.Das heißt, man hat in irgendeiner Art und Weise was Künstlich-Intelligentesgemacht oder man hat vielleicht die Definition von Intelligenz verschoben undgesagt, das kann jetzt eine Maschine. Vielleicht ist das dann gar nicht so intelligent.Und vielleicht passiert dasselbe jetzt zum Beispiel mit Sprache,dass man sagt, guck mal sich gut auszudrücken oder irgendwie in Sprache sichzu formulieren muss nicht zwingend intelligent sein,sondern das kann eben auch ein System und vielleicht sogar besser als wir unddas kann ein genauso wie diese Schachgeschichte, da waren ja auch irgendwiedie Schachmenschen sehr verletzt, bedroht, ich weiß nicht was.Geht es uns doch jetzt auch so? Ich als Programmierer benutze diese ganzen Werkzeuge,die mich dabei unterstützen, Code zu schreiben, die sind besser als ich.Oder wetzen meine Fehler aus? Schriftsteller sehen vielleicht,oder Redakteure sehen, oh guck mal, das Ding kann das jetzt hier glatt ziehen.Was bedeutet das denn für uns?Was bedeutet das denn? Ist das verwerflich, stresst uns das?Oder ist das eine Chance nochmal genau zu definieren, was ist wirklich Intelligenz?Du meintest da sowas wie künstliche Intelligenz, was ist das?Da ist man sich über, also eine Definition gibt's zig,ne, also es gibt so klassische Definitionen, kann ein System einen täuschen,es gibt eine, also eher so eine fließende Definition, Dinge,die in der Domäne der Menschen liegen und die jetzt vielleicht künstlich wären,also eher sowas, was sich entwickelt.
roddi 1:01:56
Ich fand den Begriff ja schon immer sehr schwierig, weil Intelligenz ist was,was sowieso schwer zu definieren und zu greifen ist.Und dadurch sagt er nicht viel aus und deswegen sagt auch künstliche Intelligenzennicht viel aus. Also ich finde den Begriff Machine Learning da deutlich besser,weil es halt einfach mehr erklärt, was da eigentlich passiert und auch definiert, was da passiert.
Oliver Zeigermann 1:02:20
Ist ein eher technischer Term. Man sagt so, also eine Maschine lernt,aber künstliche Intelligenz ist auch in aktuellen Systemen viel mehr als so Maschinenlernen.Das hoffe ich noch so. Zum Beispiel wenn man ein tolles Schachprogramm hat,dann ist da eine Suche drin oder auch zum Beispiel unheimlich viel Engineeringnoch dazu. Und es gibt so klassisch irgendwie auch Verfahren,das der KI, die eben nicht Maschinenlernen sind.Aber du hast im Prinzip recht, alles was im Moment cool ist,ist Maschinenlernen und deswegen benutze ich das auch lieber,weil da kann man wesentlich drüber reden.
Tim Pritlove 1:02:51
Podcast zum Beispiel. Okay, aber was sind denn dann die entscheidenden,weil dann begann ja auch so eine Softwarebewegung, so,also das Deep Learning, Ich weiß immer noch nicht so ganz genau woran man es jetzt festmachen kann,aber irgendwie das mit den Katzen war so ein Ding, dann gab es diese Deep Dream Geschichten,so diese Filmchen, wo man dann irgendwie so in diese ganzen Gedankenstrudeldieser Google AI da reingezogen wurde,die einfach crazy aussahen, aber die im Prinzip ganz gut visualisiert haben,wie so diese permanente Verfeinerung der Wahrnehmung quasi stattfindet,anders kann ich es jetzt auch nicht ausdrücken. und diese...Tiefen Machine Learning Modelle, also dieses Deep Learning war dann einfachgemeinsam mit der verfügbaren Rechenpower auf einmal so der Schlüssel und dann wurde es ja heiß,dann war das nicht mehr so akademisches Paper macht mal was und man schaut sichdas mal an und so aha interessant,Sondern da wollten das alle ausprobieren und dann ging es irgendwie relativ schnell,dass so Tools rauskamen, wie TensorFlow war glaube ich relativ am Anfang sogarschon mit dabei, das weiß ich jetzt nicht so ganz genau, das wäre nämlich jetztmeine Frage, also womit fing's denn an und was ist sozusagen heute noch The Shit.
Oliver Zeigermann 1:04:11
Also was es heute noch gibt, also letztlich.
Tim Pritlove 1:04:14
Womit fing's an?
Oliver Zeigermann 1:04:15
Womit es anfing, waren, glaub ich, so Torch-Varianten. Also das,was jetzt PyTorch ist, also die Python-Version von Torch.Das war akademisch, ist immer noch ein bisschen akademisch. Und TensorFlow kammeiner Meinung nach deutlich später und ist eher was, was man so als Praktiker benutzt.Aber letztlich wüsste ich jetzt von keinem Framework außer PyTorch und TensorFlow,die noch irgendeine Relevanz haben für die Neuronen der Netze.Also auch alles was man zum Beispiel, Huggingface hatten wir hier vorhin glaubeich schon, hast du glaube ich geteilt, alles was darauf läuft ist entweder PyTorch oder TensorFlow.
Ralf Stockmann 1:04:53
TensorFlow ist 2015.
Oliver Zeigermann 1:04:53
Das ist also später. Also...High-Torch müsste deutlich früher sein, würde ich vermuten.
Tim Pritlove 1:04:59
Okay, aber was machen diese Frameworks denn eigentlich genau?Also was ist das, was jetzt durch diese Software-Systeme überhaupt ermöglichtwurde und was setzt auf was auf?
Oliver Zeigermann 1:05:10
Also diese Software-Systeme sind in der Lage eine Abstraktion zu schaffen überletztlich mathematische Operationen, die notwendig sind, um sowas wie ein neuronalesNetz zu berechnen und zu simulieren.Das heißt, man muss nicht auf der Ebene von Matrixmultiplikation oder ähnlichenmathematischen Operationen Dinge spezifizieren, sondern man kann sagen,ich hab ein Netz mit unterschiedlichen ...Mit einer Tiefe, die du dir selbst aussuchen kannst. Und je tiefer das ist,desto deeper ist das Learning. Also, du hast ... Du organisierst das häufig in so einer Art Layer.Und das können die dir bieten auf einer Abstraktionsebene, sodass du sagen kannst,so und so viele Layer und so hintereinander geschaltet haben und dann nimmstdu diese mathematische Komponente raus, aber nicht richtig doll,sondern du nimmst, du schaffst also quasi eine bessere Abstraktionsebene.Ein bisschen so habe ich immer gedacht, sowas wie früher, wenn wir,wir waren bei Compilerbau, Compiler willst du eigentlich nicht von Hand stricken,sondern vielleicht einen Compiler Generator haben, du willst auf eine andereAbstraktionsebene, ein bisschen sowas machen Außerdem liefern die einem fertige Architekturen.Das heißt, du musst das nicht zwingend selbst definieren, sondern kannst sagen,ich möchte eine fertige Architektur, wo Leute sehr, sehr lange darüber nachgedachthaben, was ich nie hinbekommen würde.Hinbekommen würde. Und Architektur bedeutet dabei sowas wie,wie man es jetzt auch im Chat sieht, dass du dir überlegst, wie schalte ichmeine Schichten hintereinander und wie groß sind die Schichten und was für eineArt von Schicht sind das.Das ist typischerweise für jemand, der das mal so macht, auch für jemanden wiemich, ein Softwareentwickler, eigentlich zu schwer, sondern das machen Wissenschaftler,die finden was tolles raus, dann veröffentlichen die das und dann sagen die,die funktionieren super und dann benutzt du das.Und das liefern dir diese Frameworks auch. Das heißt, du kannst aufsetzen aufeiner völlig anderen Ebene.Also letztlich musst du die noch trainieren, da muss man vielleicht ein bisschenwas noch mathematisch verstehen, aber eben nicht mehr so viel.Und du musst nicht tief ins Detail gehen.
Ralf Stockmann 1:07:08
Ich hab ja gerade in den Chat mal reingeworfen, dieses TensorFlow Playground.Das ist auch schon ein bisschen älter, sechs, sieben Jahre oder sowas.Das hab ich damals mal in einer Keynote verwurstet und hab dann quasi live malversucht den Leuten zu zeigen, das ist jetzt mal der Unterschied,wie viele Layer ich jetzt hier hintereinander schalte und was jetzt mein Grundneueseigentlich so macht und sowas.Ich würde sagen es ist immer noch eine Ebene zu kompliziert,dass man es als Laie irgendwie in vertretbarer Zeit versteht,aber es hat zumindest die Anmutung von okay ich beginne zu begreifen was soverschiedene Variablen sind,auch so overtraining kommt dann da plötzlich mit rein und sowas oder overfitting,ein ganz ganz hübsches Spielzeug kann man sich mal ein bisschen mit beschäftigen.
Oliver Zeigermann 1:07:50
Absolut toll, um eine Intuition zu bekommen, es kann aber auch ein bisschentäuschen, weil sobald das ein bisschen komplexer ist, ist es vorbei mit derIntuition, da versteht man leider überhaupt nichts mehr, das kauft man sichirgendwie ein für die größte Leistungsfähigkeit von diesen Dingern.So wie das da jetzt dargestellt ist, also wenn ihr das so fertig offen habt,wie gesagt das ist toll zum experimentieren, aber.
Ralf Stockmann 1:08:12
Du musst mal auf play drücken, dann passieren Dinge.
Tim Pritlove 1:08:16
Ja aber es macht eine Sache auf jeden Fall schon mal klar und ich glaube dasist irgendwie, ich versuche gerade mal einfach mal so ein bisschen diese Magieein wenig zu entzaubern, weil wir reden ja am Ende hier einfach dann doch über Algorithmen.Also diese neuronalen Netzwerke zum Einsatz zu bringen, sprich ein Neuron.Korrigiere mich wenn ich jetzt zu den falschen Begriffen komme,also man hat halt irgendwie Daten,die man in irgendeiner Form analysieren, indem man halt Training beginnt unddieses Training heißt ich durchlaufe so ein neuronales Netzwerk,was verschiedene Ebenen tiefer ist und wo eben all diese ganzen einzelnen Neuronenmiteinander unterschiedlich stark verbunden sind und unterschiedlich viel Feedback,vielleicht auch wieder in eine höher gelegenen Layer zurückgeben,sodass man eben so selbst verstärkende Systeme baut, die irgendwie so vor sich hin pulsieren.Diesen Netzwerk, was man gebaut hat, wirft man also die Daten in irgendeinerForm vor und dann leuchten eben diese Neuronen auf oder nicht und verstärkensich gegenseitig und erzeugen am Ende halt eine Ausgabe,was dann quasi so das eigentliche Model ist.Also das Endergebnis, was dabei rauskommt. Sozusagen das Trainingsergebnis.Und dieses Model ist irgendwie eine diffuse Bitwolke, was man aber dann wiederumzur Laufzeit eines Programms heranziehen kann.Sagen wir mal man hat jetzt Daten, waren Fotos, das Modell versucht halt irgendwie Katzen zu erkennen,ich lasse das über diese Fotos rüberlaufen mit ganz vielen Maschinen und ganzviel Zeit und am Ende gewinne ich ein Model, was im Prinzip sagt,kann Katzen in Bildern erkennen.Und dann kann ich das irgendwie in mein Programm laden, wenn ich in eine entsprechende...Laufzeitumgebung habe und da gibt's ja mittlerweile eine Menge,man kann solche Modelle dann eben auch von solchen Webseiten wie Hugging Face herunterladen,das ist ja im Prinzip so ein Repository von solchen durchgerechneten AI Modelsund dann nimmt man das halt einfach rein und bringt das dann eben für die Datenmit denen man dann selbst in dem Moment arbeiten will zur Anwendung.Das ist meine Wahrnehmung des aktuellen Standes eigentlich, was so da ist.Unabhängig von so ChatGPT einfach nur Machine Learning Applied Technology undda muss man sich dann halt die richtigen Frameworks machen und in zunehmendemMaße sehen wir halt wie das eben auch in die ganzen Devices mit reinkommt.So ein iPhone hat so einen neuronalen Chip, der in der Lage ist diese Model-Anwendungirgendwie zu beschleunigen und zunehmendermaßen halt auch die Computer und dieGrafikkarten sowieso schon immer und das ist sozusagen das worüber geredet wirdund der Clou ist jetzt einfach diese Models irgendwie so zu bauen,dass sie eben die Daten auf eine besonders pfiffige Art und Weise analysiertbekommen und Models rauszuschmeißen, die möglichst schnell möglichst komplexeAntworten auf beliebige Daten geben können.
Oliver Zeigermann 1:11:28
Im Wesentlichen ist das so korrekt, ja. Also man muss dazu sagen,dass die Anwendung von so einem Modell, also wenn das fertig ist und schon fertigtrainiert, dass das relativ simpel ist.Also das lädt man dann mit einem dieser Bibliotheken und kann es dann benutzen.Man muss immer noch verstehen, wie geht man jetzt mit der Ausgabe um und mussvielleicht ein bisschen sich über so Konfidenz Gedanken machen.Aber im Prinzip ist das vergleichsweise simpel.Das trainieren von so einem Modell, das ist eine ganz andere Phase.Also sobald das irgendwie ausgeliefert ist, ist das meistens fertig trainiert.Das trainieren ist relativ schwer, also auch engineering-mäßig ist es schwer,es ist unheimlich viel black magic drin, also man macht so Dinge,die man irgendwo gelesen hat und plötzlich geht es und keiner weiß warum.Und das ist aber so, und man muss dafür auch tatsächlich gewisse mathematischeFähigkeiten mitbringen,weil man im Wesentlichen verstehen muss, dass es eine Optimierungsaufgabe ist,also es funktioniert so, du schiebst vorne eine Eingabe rein und sagst,das soll hinten rauskommen, das ist jetzt die Trainingsphase und dabei optimiertein Verfahren die Parameter, also alle Parameter deines Netzes.Das musst du nicht im Detail verstehen, du musst verstehen, dass es so ist,weil am Ende kommt so eine Loss-Funktion raus, also so was wie,wie gut ist das Ding in der Lage, quasi die Ausgabe zu reproduzieren und anhanddieser Loss-Funktion werden dann die Parameter angepasst, sodass diese Loss-Funktion nach unten geht.Und das ist letztlich eine ganz klassische Art und Weise, Optimierung zu machen.Das muss man aber als Benutzer davon überhaupt nicht können.Und wieder würde ich behaupten, dass wieder so ein Schritt, dass der Schrittder nächsten Abstraktion kommt, nämlich auch weg davon,Nämlich, wenn man jetzt sowas wie Chat-GPD benutzt, da musst du das ja gar nicht mehr machen,du kannst zwar diesem Ding anhand von Kontext, zu örtlichen Informationen gehen,also quasi das Ding konditionieren oder nachtrainieren, du sagst,guck mal, ich geb dir mal ein paar Beispiele und so möchte ich,dass du das weitermachst, aber dieses explizite Training fällt ja weg,was wiederum bedeutet, dass die Menschen, die so ein System benutzen und trainieren können,die Menge der Leute viel viel größer ist, weil so ein Sonnensystem zu trainierenoder am Ende vielleicht sogar noch eine Architektur dafür zu bauen,das sind echt wenig Leute, weil man dafür echt wahnsinnig viel Erfahrung brachund irgendwie auch sich da durchkämpfen muss.Das ist jetzt, sagen wir mal, der nächste Schritt, aber im Prinzip ist das,was du gesagt hast, korrekt.Ja man muss das Ding trainieren, aber sowas wie ChatGPT ist fertig trainiert und es gibt Menschen,die sagen, sie haben jetzt irgendwie versucht Sinn daraus zu machen und sagen,wenn man jetzt zusätzliche Anweisungen für ChatGPT gibt,dann ist das ein bisschen so, als würde ChatGPT selbst ein kleines Modell trainierenund in sich drin so ein kleines abstraktes Modell haben, das ist jetzt ein bisschenrumgeschwafelt auch von diesen Leuten, aber ist nicht abwegig das zu denken.
Tim Pritlove 1:14:17
Also auf der, auf diesem Huggingface,auf der Huggingface Webseite, wo halt diese ganzen Models sind,sehe ich gerade eine ganz schöne Übersicht,die sozusagen mal so gruppiert diese ganzen Models, die da so zum runterladensind und das finde ich eigentlich eine ganz interessante Klassifikation, was es alles so gibt.Also die haben jetzt hier auf ihrer Webseite viele tausend Modelle,Das allermeiste davon ist so Textklassifikation, also was ist das sozusagen.Das sind mal locker so knapp 23.000 Models, gut 2000 beschäftigen sich mit Übersetzung,was ja auch finde ich so ein ganz starkes Ding geworden ist.Man merkt das ja bei Chet Gp T, man kann mit dem Teil jederzeit die Sprachewechseln und es ist völlig egal wo man noch redet. Also wirklich Babelfisch,da sind wir wieder bei Danke des Adams.
Ralf Stockmann 1:15:22
Wir haben bei uns im Intranet einen Kollegen, der mal Kirchenslawisch ausprobiert hat mit Chet Gp T 4.Und? Er meinte, Kirchenslawisch, das ist eine Spezialversion des Slawischen,was halt vor allen Dingen in sakralen Texten des 12.Jahrhunderts oder sowas vorkommt und wofür es extrem wenig Volltext gibt aufder Welt und seine Arbeitsthese war,eigentlich kann in diesem Datensatz nicht genug drin gewesen sein und er meintedie Ergebnisse seien besser als das was man nach zwei Jahren Studium produzierenwürde. Es sei verstörend.
roddi 1:15:58
Kirchenslawisch ist in sehr viel orthodoxer Musik ist mit kirchenslawischen Texten.Also da sollte er vielleicht dann nochmal gucken, ob das Modell nicht auch damit dann trainiert wurde.
Tim Pritlove 1:16:12
Okay nochmal kurz hier zu diesen Models, weil ich fand jetzt diese Klassifizierungganz interessant oder so diese Übergruppen,also wir haben Übersetzung, Textklassifizierung, Summarization,also Zusammenfassung ist ja auch so echt eine der Stärke, die wir so gesehenhaben, so nach dem Motto hier ist ein Blob auf Text, ich hab dir eine CompanyE-Mail gegeben, sag mir in drei Sätzen was da drinsteht, das wollen wir doch alle.Ich weiß aber jetzt auch nicht, sudo makes sense.
Ralf Stockmann 1:16:39
Erklär es so, dass es ein Sechsjähriger versteht.
Tim Pritlove 1:16:46
Question answering, object detection, image classification, audio classification.Das ist schonmal ein ganz interessanter Einstieg, wenn man sich das dann haltgenauer anschaut, was es da noch so für Tasks gibt, also diese ganzen Models,dann geht es halt noch sehr viel mehr ins Detail und das ist irre.Wir werden jetzt einfach in zunehmendem Maße sehen,dass Anwendungen irgendwelche dieser Modelle zum Einsatz bringen,das wird dann mehr oder weniger gut funktionieren, aber zumindest ist das dannso eine Funktionalität,die es so vorher nicht gab oder die man sich irgendwie immer gewünscht hat,weil dieses MaxSense bringt's wirklich ganz gut oder diese do what I mean Taste,immer so dieses Problem, dass man diesen scheiß Computer nicht so richtig erklären kann,was man jetzt eigentlich gerade von ihnen will, weil man dann erstmal ihre eigeneSprache lernen muss und das ist irgendwie das,wovon ein Chatship hier auch irgendwie so befreit hat, man kann jetzt einfachmal so, ich sag dir einfach was in meinem fucking Kühlschrank ist und du sagstmir was ich daraus kochen kann, grandios.
Oliver Zeigermann 1:17:52
Aber es stimmt schon das also wie ihr habt du hast völlig recht es bringt dasganze auf ein anderes Niveau man braucht vielleicht zum Teil noch die Inspirationvon den Sachen die du da jetzt gerade gesehen hast ich glaube hat jetzt jemand gepostet.
Tim Pritlove 1:18:07
Es ist ein Model und es sieht gut aus.
Oliver Zeigermann 1:18:15
Sehr schöner Beitrag im Chat, ich teile mal kurz, damit wir halt sachlich hierwieder die Biege kriegen.Sachlich? Also ich gebe nochmal alles,mal sehen wie lange ich das durchhalte, aber diese Tasks die du gerade gesagthast, das braucht man immer noch habe ich das Gefühl, um überhaupt ein Gefühldafür zu bekommen, was ist denn überhaupt möglich, was kann man denn überhaupt machen.Also sowas wie Summarization oder ich will jetzt eine Frage stellen oder ichmöchte irgendwas zusammenfassen, also Summarization hatten wir ja schon.Und es ergibt sich daraus ja was ganz neues,was ich echt erstaunlich finde,nämlich sowas wie, dass man so ein Psychologe wird für diese Modelle,ne, du musst dir so überlegen, wie spreche ich mit dem Modell, dass es das macht,was ich will und das ist irgendwie, also vor einem Jahr hätte ich nicht gedacht,dass man diese Menschen braucht, jetzt denke ich, die braucht man und dann istes aber auch wieder so, dann bist du der Psychologe oder die Psychologin füreins von diesen Modellen.Ich fände es auch schwer mich noch sachlich zu äußern.
Tim Pritlove 1:19:16
Lies nicht so viel im Chat.
Oliver Zeigermann 1:19:18
Der Chat ist direkt vor mein Gesicht.
Tim Pritlove 1:19:20
Schau mich an.Ich mach den wieder weg. Das lenkt dich nur ab.
Oliver Zeigermann 1:19:27
Genau, also dass man so was hinbekommt, man wird jetzt ein Experte für das eineModell, es gibt neue Modelle und man muss sich plötzlich ganz neu ausdrücken,als wäre jedes Modell sowas wie ein anderer Mensch mit dem man anders reden muss.Und würde ich jetzt irgendwie sagen müssen, was gibt's hiernächst,würde ich wirklich sagen so was wie ein Modellpsychologen, also mein Modellist irgendwie zickig, was kann ich machen.Oder eine andere Idee, die mein Freund Miki Oma hatte, ist sowas wie,man kriegt unterschiedliche Persönlichkeiten da rein, man schafft es so,dass dieses Ding so mit einem redet, dass man anders motiviert wird.Also mit mir vielleicht ein bisschen assi, mit anderen Leuten vielleicht einbisschen freundlicher so,dass das Ding lernt, wie ist man drauf oder auch sowas wie,dass das Ding sowas lernt wie, was hast du denn gestern mich schon gefragt oder so,dass es sowas gibt wie so ein Langzeitgedächtnis von solchen Geräten,dass die sagen, ich weiß, was du gestern gefragt hast und darauf kann ich zugreifen,ich kann jetzt aufs Internet zugreifen und dann kann ich das alles verwurstenund diese Sachen sind relativ nah, also technisch sind die möglich, also machbar.Und die Frage ist, wann passiert das? Also das würde mich, das wäre jetzt quasifür mich jetzt noch der nächste Schritt, man hat irgendwie noch Modelle,die persönlich sich auf einen so eingrooven.Ja gut, ein bisschen ausgeufert ich das gerade, entschuldigt bitte.
Tim Pritlove 1:20:55
Ja, so auf jeden Fall Dinge passieren und es passiert eine ganze Menge und esist halt einfach, also es gibt einen Hype Aspekt.Aber es ist auf jeden Fall was dahinter.Das muss man echt mal festhalten.
Oliver Zeigermann 1:21:14
Und ich bin traurig, dass wir Douglas Adams nicht da haben, der uns sagt,wie geht es denn weiter? Was passiert denn jetzt?
Tim Pritlove 1:21:19
Ja was ja jetzt passiert sind ja diese Large Language Models.Das ist ja im Prinzip jetzt der neue Shit.Alles worüber wir jetzt bisher gesprochen haben ist ja eigentlich dieses klassischeMachine Learning, was dem ja zugrunde liegt, aber was ist denn jetzt sozusagendie eigentliche Magie dahinter?Also was ist jetzt sozusagen an den LLMs anders als das was man vorher gemachthat oder ist es einfach nur dasselbe in groß?
Oliver Zeigermann 1:21:48
Also ein Trick der auch am ende wenn man dann so sagt ja da wäre ich auch draufgekommen also was man so bei katzen erkennern machen muss ist dass man einereihe von katzen bildern haben muss und sagen muss katze,reihe von hunde bildern muss man sagen hund das heißt man muss die leben odermuss sagen was ist die wahrheit.Und das ist bei Texten echt wahnsinnig schwer. Also wenn du jetzt zum Beispielsagst, ich möchte ein Modell haben, das soll zusammenfassen, dann ist das so.Menschen haben tatsächlich irgendwieBeispiele für gute Zusammenfassungen gesammelt, haben die gemacht.Oder sowas wie, was ist eine gute Antwort, haben auch wieder Menschen gemacht,haben auch wieder gesagt, ja, das ist eine gute Antwort, das ist eine schlechte Antwort.Oder Übersetzung, gibt's ja ganz viele Beispiele, weil es gibt eben ganz vielÜbersetzung, auf die kannst du zugreifen, so ist die Eingabe, so ist die Ausgabe.Aber es gibt da viel, viel, viel, viel mehr Texte im Internet,die man so nicht benutzen konnte, weil man ja irgendwie da nicht wusste,was ist denn die Eingabe und was die Ausgabe.Stattdessen haben die Leute so was gemacht, dass sie gesagt haben,wir nehmen jetzt mal alles, was wir an Texten so finden können und versuchenjetzt mit einem gewissen Kontext, also das, was mit den Wörtern,die vorher erschienen sind, möchte man das nächste Wort vorher sagen.Das heißt, man trainiert das Modell so, dass man sagt, Eingabe sind die vorherigenWörter, Was ist bisher passiert? Wie geht es weiter?Und das kannst du mit jedem Text machen, da musst du quasi keinen Menschen haben,der diese Texte, der die Texte aufbereitet für die Maschine und kannst deswegenim Prinzip jeden Text nehmen, den es gibt.Dann kann diese Maschine aber noch nicht irgendeine spezielle Aufgabe,sondern man hat so eine Art Basismodell trainiert und Leute sagen,dieses Basismodell hat jetzt irgendwie das Wissen, was im Internet steckt, quasi kondensiert.Und dann machen wir weiter, dann trainieren wir das weiter, dann trainieren wir das weiter,so wie ich das gerade gesagt habe, dann brauchen wir jetzt nicht mehr so vielezusätzliche Trainingsdaten umzusammenzufassen und nicht mehr so viele Trainingsdaten um zu übersetzen,weil wir haben ja schon ein Grundmodell, das ist eben grundsätzlich,versteht das Text, was immer man damit meint, dann wird man ja ganz schnell philosophisch.
Tim Pritlove 1:23:50
Also versteht den Text als solchen sozusagen.
Oliver Zeigermann 1:23:52
Ja, hat irgendwie ein Grundverständnis davon, wie die Sprache funktioniert unddas hat man bei ChatGPT gemacht,indem man eben sowas wie GPT 3 oder 4 benutzt hat als Grundlage und gesagt hat,jetzt auf Basis davon, was wir jetzt haben als Grundmodell,trainieren wir dieses Modell so, dass es in der Lage ist,eine vernünftige Konversation zu führen, weil sonst vorher konnte es das ebennicht, da hat man gesagt, das feintunen wir, da hat man noch mehr gemacht,hat man da weitere Systeme dran gebaut, das heißt, um es mal so zu sagen,man hat die Art und Weise, wie man es trainiert hat,schlau gemacht, weil man gesagt hat, wir haben doch einfach Texte,lasst doch mal sehen, was dann passiert, wenn wir irgendwie versuchen,unserem Modell zu sagen, sag mal voraus, was als nächstes passiert.Das, wie ich das eben beschrieben habe, ist nur die Art und Weise,wie man GPT-Modelle trainiert,nicht jedes Large-Language-Model, das würde jetzt aber zu weit führen,manche trainieren ein bisschen anders, aber So diese Idee von man macht dassogenannt anzuverweis also man nimmt einfach den Text und man muss bestimmteWörter daran vorher sagen ist in allem gemein.Und das ist die eine Idee, das heißt du nimmst eine riesige Trainings,also plötzlich steht dir ja nicht irgendwie 50.000 Trainingsdatensätze,sondern Milliarden von Trainingsdatensätzen stehen dir ja zur Verfügung,du hast also eine viel viel größere Anzahl von Trainingsdaten.Und das zweite ist, dass man das immer größer gemacht hat, man hat es immergrößer gemacht, ich lache immer, weil ich hier den Chat seh,weil das so bummsackt hört. Sieh nicht den Chat, ich mach das jetzt weg.Jaja, alles klar. Also ich find's aber relativ amüsant, weil...
Tim Pritlove 1:25:22
Das hab ich befürchtet.
Oliver Zeigermann 1:25:23
Jaja, also das lassen wir jetzt mal kurz. Also genau,also man hat auch diese Größe von diesen Modellen immer weiter so verändert,indem man geguckt, was geht denn, was kriegen wir denn hin, was ist denn technischmöglich, was können wir überhaupt machen.Und so von der Grenze von GPT-2, das war auch schon ein riesiges Modell,zu GPT-3 hat man Sachen gesehen, wo man gesagt hat,das sieht jetzt echt ziemlich cool aus, das Ding ist in der Lage,durch Zusatzinformationen, die Leute geben, dass das Ding sich so verhält,dass man das Gefühl hat, es ist irgendwie intelligent.Was immer man damit meint also es ist ein subjektives ding aber es waren sachenmöglich die gingen vorher nicht und das ist tatsächlich wieder größe also bumps.Überraschenderweise. Und das geht in gpt 4 geht es weiter aber nicht mehr sokrass also von 2 zu 3 ist gigantisch von 3 zu 4 ist das man denkt wow ist schonecht cooler aber es war einfach man hat einfach mehr bumps gemacht und dann ging das.
Tim Pritlove 1:26:27
Einfach mehr Bums. GPT heißt Generative Pre-trained Transformer.Das ist ja das worüber wir eigentlich die ganze Zeit reden. Also ein generativer,vortrainierter Transformer.
Oliver Zeigermann 1:26:42
Also Transformers ist quasi diese Art von, diese Art und Weise des Modells,das geht zurück auf, ich glaube, irgendeine Idee von2017, wo man aber eigentlich nicht jetzt irgendwie was technisch oder was philosophischcooles gemacht hat, sondern wo Leute gesehen haben, guck mal,wenn wir sowas fettes trainieren wollen, müssen wir ein bisschen die Architekturverändern, können wir nicht was machen, was man parallel trainieren kann.Was vielleicht auch noch ein bisschen schlauer ist, da gab's so Attentionlayer,die im Wesentlichen das Schaffen von einem Text zu einem anderen so Zusammenhängeherzustellen oder innerhalb eines Texts zu sagen,folgendes Wort hat eine starke Beziehung zum anderen Wort.Und das guckt man sich nie an als Mensch, weil es alles zu viel ist,aber offensichtlich sind diese Art von Layern in der Lage, das hochgradig paralleltrainieren zu lassen, was wiederum bedeutet, dass man es machen kann,sonst konnte man es gar nicht machen, also mit ganz vielen GPUs.Und die sind eben in der Lage, Sprache sinnvoll so zu zerlegen,dass man damit sinnvolle Dinge tun kann.
Tim Pritlove 1:27:48
Ja das funktioniert ja auch ganz offensichtlich.
Oliver Zeigermann 1:27:50
Ja das funktioniert ganz offensichtlich genau und wie gesagt bisschen Architektur,viele Trainingsdaten, großes Modell, fetter Hardware.Und dann Leute die es gemacht haben vielleicht ist das eigentlich am ehestenimmer noch man macht es irgendwie und man sagt ja ich weiß auch nicht was ichtue wir machen das mal wir ballern da jetzt richtig Geld rein mal sehen ob esgeht und dann geht's oder eben nicht.
Tim Pritlove 1:28:12
Was ist denn dein Eindruck von Open AI als Organisation?Also es wird ja hier von vielen auch erstmal nur so als yet another corporate monster wahrgenommen,aber tatsächlich ist es ja eigentlich angetreten, um wirklich,eben hence the name Open,hier ein offenes System zu schaffen und die Company existiert zwar,aber sie ist ja selber auch von einer, was ist das, eine Foundation,der das gehört, Open AI Inc.Ist ein Non-Profit Unternehmen und es gibt eine Tochtergesellschaft,die gewinnorientiert ist, die Dienstleistungen macht, die jetzt unsere Kohlenimmt für die 20 Dollar im Monat, dass man das Modell benutzen kann.
Oliver Zeigermann 1:28:59
Ich glaube da haben wir vorhin schon angefangen ein bisschen drüber zu sprechen,was das eigentlich bedeutet und ob das überhaupt irgendwas bedeutet.Ich glaube das bedeutet nichts.Und ich bin völlig bei dir, wir,wollen mittelfristig, dass man, dass also in die Hände von, wie gesagt ich glaubediesen Menschen absolut, dass sie Idealisten sind, aber die sind dann,kommen in den Einflussbereich von Leuten, die hauptsächlich an Geld oder anderenSachen interessiert sind, das möchte man nicht in die Hände von diesen Leuten legen.Das heißt, mein Eindruck ist von den Menschen nur das Beste, aber ich glaube...Ob die sich da strategisch gegen, und das System wird sie fressen.Ob die sich gegen Microsoft so positionieren können, ich glaube auch nicht,dass Microsoft die Welt zerstören will oder irgendwie böse ist,aber die wollen eben Geld verdienen, das ist eben eine kommerzielle Firma.
Tim Pritlove 1:29:50
Hast du diese Kongress Anhörung gehört, gesehen? Also es gibt ja diesen CEOvon OpenAI, Samuel Altman.Und der war jetzt im Kongress vorgeladen zu so einer allgemeinen AI Anhörung.Hast du das gesehen Ralf?
Ralf Stockmann 1:30:07
Gesehen nicht aber in Ausschnitten wahrgenommen.
Tim Pritlove 1:30:09
Genau, in den Anfangen hatte ich mir das ein bisschen angehört und dann auchAusschnitte wahrgenommen und ich fand das ziemlich bemerkenswert,weil erstmal sein Auftreten schonmal so ganz anders war als das was wir jetztso aus den letzten Begegnungen mit Zuckerberg und so weiter vom Kongress gehabt haben,die ja die ganze Zeit immer nur gesagt haben wie toll sie sind und dass dasja alles nicht so schlimm ist und der Old Man, der tritt ja ganz anders auf.Der geht da hin und sagt so, ja wir finden das ja alles ganz toll und wir sind der Meinung,dass Open AI in der Lage ist so jeden Aspekt des Lebens in irgendeiner Formzu beeinflussen und ich glaube da sind wir uns auch relativ einig,dass das auch durchaus so sein kann.Kommt dann aber auch relativ schnell zur Sprache auf die Probleme,die er selber sozusagen da sieht.Also das Problem der Desinformation, die sozusagen auch eine Verantwortung quasimit sich bringt für die Unternehmen, die diese Modelle veröffentlichen.Die Modelle, die schwitzen ja gerade zu Bias, also das ist ja sozusagen eineDestillation einer Betrachtungsweise und je nachdem wie du diese Betrachtungsweisetunest, kriegst du halt das eine oder das andere Ergebnis.Und er sieht dann halt auch Job Risks, er hat irgendwie...Angst, dass sozusagen die Technologie auch der Welt schaden kann,spricht auch explizit Wahlmanipulation an und macht auch konkrete Vorschläge für eine Regulierung.Das fand ich recht bemerkenswert, ohne das jetzt wirklich werten zu wollen.
Oliver Zeigermann 1:32:03
Ich glaube auch, dass das wirklich ein großer Unterschied ist und dass es auchdazu führt, dass Leute, die Idealisten sind, bei so einer Firma arbeiten wollen.Ich glaube, wie gesagt, das ist aber nur geraten. Ich glaube nur,wie gesagt, dass ich das nicht lange halten kann.Es gibt so ein anderes Paper, also das ist angeblich geleakt von Google,wo Google Leute beschreiben, sie können eigentlich nicht konkurrieren mit den Open Source Modellen.Und am Ende glaubt so ein angeblicher Google-Ingenieur,dass es am Ende die Open-Source-Modelle und vor allem die Breite machen,also dass Leute mit unterschiedlichen Modellen, unterschiedlichen Architekturen,unterschiedlichen Datensätzen anfangen zu trainieren und ihnen damit das Wasser abgraben.Und ich würde denken, ganz viele Leute gehen im Moment zu OpenAI,wenn die Bock haben, was zu bauen, weil die auch diesen Idealismus,das ist ja nicht nur er, der Idealist ist, sondern auch die anderen.Ich glaube nicht, dass es lange hält und ich glaube auch, dass mittelfristigdiese Open-Source-Modelle was hinbekommen,wenn man das kleiner bekommt, wenn man, wie gesagt, gucken kann,was nimmt man für Datensätze und vielleicht auch irgendwelche Abstriche machtin der Allgemeinheit des Modells,genau, aber ich finde, also ich kann nur das unterstreichen,was Tim gesagt hat, diese Leute sind Idealisten und wollen auch wirklich wasGutes machen, da bin ich sicher, wie gesagt, ob die quasi in dem Kontext,in dem sie sich befinden, das hinbekommen,Das glaube ich nicht, aber da ist meine Meinung so gut wie jede andere würde ich sagen.Also geraten einfach, das weiß ich nicht.Ja aber es ist doch cool ich meine jemand zu sehen der nicht irgendwie sagtwir sind die coolsten oder wir können das alles sondern reflektiert argumentiertist ja auch jemand dem wie gerade als nerd wahrscheinlich viel mehr glaubenschenken wir wissen ja das selbst alles.Wer differenziert über sich reden kann ist meistens jemand der mehr drauf hatals jemand der einfach nur sagt wir sind cool.
Ralf Stockmann 1:33:50
Die die art und weise wie sie es seit november ja auch wirklich in die weltgedrückt haben ist ja auch schon an sich bemerkenswert also sie hätten ja aucherst mal beim pentagon aufschlagen können oder weiß der geier wohl militärischindustriellen komplex so aber nein sie haben gesagt hier welt guck mal 3,5erVersion gut für die 4er wollen wir jetzt ein bisschen Geld haben,kann ich auch nachvollziehen, aber die 3,5er ist ja bis auf eine Roke E-MailAdresse brauchst du da ja nichts um da als Laie schon irgendwie mitzutun unddir in den Kopf zu machen okay,was wird das für meine Lebensbereiche verändern,das hätten sie nicht tun müssen, da kenne ich auch wenig Beispiele aus der Geschichtewo das, innerhalb so kurzer Zeit, wir hatten ja glaube ich in der letzten Sendung,dass noch keine Technologie irgendwie so viele Nutzende innerhalb von so kurzerZeit irgendwie bekommen hat, wie jetzt wirklich Chat-GPT.
Oliver Zeigermann 1:34:43
Also ja, stimme ich zu. Also es gibt aber auch Menschen, die glauben nicht,was ich glaube, dass es irgendwann Open-Source-Modelle gibt,die man so betreiben kann. Die glauben wirklich, dass wir in so einer Welt jetztsind von, dass wir eine Open-API haben.Also dass es Anbieter gibt von solchen Modellen,die wir auf Spezial-Hardware ausführen lassen müssen und dass wir gar nicht in der Lage sein werden,auch in Zukunft diese Modelle selbst zu hosten, was glaube ich für uns beidenicht so cool wäre als Story,aber es gibt genug Leute, die sind sehr klug und die glauben,man muss sich verabschieden von diesem Open Source und hingehen zu man hat ebenbestimmte Anbieter und die legen offen, wie sie es machen, aber man hat es nichtmehr selbst bei sich laufen.
roddi 1:35:22
Aber ist Hosten nicht um Größenordnungen weniger aufwendig als tatsächlich das Modell zu trainieren?
Oliver Zeigermann 1:35:30
Da bin ich nicht sicher, also nicht bei dem Modell. Das Modell ist echt fettaufwendig und allein das irgendwo reinzuladen, also.
roddi 1:35:37
Also wenn morgen ein Hacker das gesamte Modell bei Chat-GPT rausträgt,bei OpenAI, glaubst du nicht, dass man das so eben mal hinkriegt das zu hosten?
Oliver Zeigermann 1:35:47
Also ich kenne niemanden, der auch nur annähernd wüsste, wie sie das überhauptbetreiben. Also niemanden.
roddi 1:35:51
Davon mal abgesehen, aber jetzt einfach vom Hardware-Standpunkt.Kann ich mir 1000 Maschinen bei Amazon klicken und dann kriege ich das gehostet?Wahrscheinlich nicht, ne?
Oliver Zeigermann 1:35:59
Nee, ich glaube nicht, dass du die überhaupt kriegst. Aber ich glaube,was du gesagt hast, wird wahrscheinlich schon stimmen. Es gibt so viele Leute,die haben so viel Bock und so viel Ahnung.Wenn das Modell irgendwie rausgeschleppt werden würde, dann würden die da irgendeineKiste zusammen kloppen. Und das würde darauf laufen. Also wahrscheinlich hast du schon recht.
Ralf Stockmann 1:36:15
Man kann es ja vielleicht ein bisschen vergleichen, das haben wir ja in derletzten Sendung auch versucht, das mal mit Stable Diffusion.Ja also klar Mid Journey immer irgendwie doch vorne weg und hat noch die besserenBilder, also im Bereich Imaging halt.Aber seit das Stable Diffusion Modell raus ist,wie sie das kompaktiert haben, ja innerhalb von Wochen,von irgendwie zig Gigabyte und du brauchst eine Grafikkarte in deinem Rechnermit 20 Gigabyte, damit du das überhaupt irgendwie lokal nutzen kannst,Bisschen so so es läuft jetzt auf dem mittelalten iPhone und zwar schnell undbrauchbar. Das hat Wochen gedauert.Da glaube ich, dass also nämlich gerade durch diese diese also Kompression istzu naiver Begriff, aber am Ende des Tages ist ja ein bisschen sowas wie eineMP3 Kompression so ich brauche nicht alle Informationen im Audio,es klingt trotzdem sehr gut.Im Ansatz vergleichbare Mechanismen scheinen auch bei den Modellen zu greifen.Warum sollte das auf Text nicht funktionieren?Weil meine naive Meinung ist immer noch, Text ist eigentlich einfacher als Bild.Das Aneinanderhängen von Tokens scheint sich mir gut komprimieren zu lassen.Es gibt jetzt die ersten Open Source Modelle, die lokal auf einem M1 laufen.Von diesem Hugging Face gibt es eine M1 Variante. Und so schlecht ist das nicht.
roddi 1:37:30
Die zweite Frage wäre eigentlich wie viel wie aufwendig wäre das so ein Modellselber zu rechnen also zu betreiben. Zu trainieren.
Oliver Zeigermann 1:37:38
Zu trainieren, Also da weiß man erst recht nicht womit die es trainiert haben.Selbst bei nicht so fetten Modellen gab es auf Hunkingface,ich glaube, die haben es runtergenommen, mal so einen Vergleich,wie teuer das ist, so ein Modell zu rechnen und ich glaube,sowas wie GPT3 war sowas wie die Lebensdauer inklusive Benzin eines Autos,würde ich mal sagen, das einmal zu trainieren, also Energiebedarf, also Auto bauen,Auto betanken, bis es irgendwie kaputt ist, weil es relativ viel ist und auchsowas mittelgroßes hatten sie immer sowas wie, wie viel Langstreckenflüge dudafür machen müsstest, das heißt das zu trainieren ist absolut umweltschädlichsag ich mal und wahnsinnig teuer.Und das ist, da musst du ja auch noch wissen was du tust.Ob das jetzt bei kleineren Modellen, glaube ich nicht, dass das so schlimm ist,aber es wird auch, also zumindest wenn die Modellgröße auch nur annähernd gleichgroß ist, Selbst wenn wir es könnten, wäre es absolut der Wahnsinn,wenn jeder das selbst machen würde. Man muss das irgendwie teilen.
Ralf Stockmann 1:38:36
Wir brauchen es ja nur in einem mal gut und offen.
roddi 1:38:38
Ja, aber die Frage ist halt, vertraue ich einem Open AI oder einem Microsoftoder einem Google oder vertraue ich lieber einem Open Source Projekt,das halt irgendwie das hinkriegt, entsprechend Hardware irgendwo unterzustellenund das zusammen zu klemmen.
Ralf Stockmann 1:38:54
Also ich hatte neulich nochmal den Vergleich gelesen, dass das komplette Trainingder GPT Basis ein Bruchteil, unter einem Prozent dessen an Energie verbrauchthat, was der ganze Krypto Quatsch uns gekostet hat.
Oliver Zeigermann 1:39:06
Das glaube ich auch, der Krypto Quatsch, das ist so witzig.
Ralf Stockmann 1:39:08
Und dafür war offensichtlich ja nun genug CPU da.
Oliver Zeigermann 1:39:12
Aber das ist so ein Relativismus, da ist es anders noch viel schlimmer,aber das Krypto-Kram, das ist so Shooting is Hitting Duck, ne?Dass das alles der Wahnsinn ist, ja, aber trotzdem,also sowas, ich bin aber bei euch, also würde man sich irgendwie Leute zusammentunund sagen, guck mal, so rechnen wir das, das ist die Datenbasis,das ist die Hardware auf der wir das laufen lassen, dann ist OpenAI,und das funktioniert gut, dann ist OpenAI natürlich weg.
Tim Pritlove 1:39:37
Aber es gibt doch nicht, für mich klingt das immer so ein bisschen so als müssteman so das the one true model haben und dann werden alle Probleme gelöst.Also ich meine das GPT4 Model, was jetzt irgendwie so angesagt ist,das ist ja jetzt auch erstmal nur ein Model unter vielen und andere Unternehmenwerden andere LLMs rausbringen und tun das ja auch bereits, also was dann vielleichteine andere Qualität auch hat.Also es wird ja nicht bei einem bleiben oder träumt ihr jetzt wirklich von soeinem Wikipedia Large Language Model, mit dem alle Antworten geliefert werdenkönnen, also es ist doch alles in gewisser Hinsicht hoch spezialisiert.
Ralf Stockmann 1:40:21
Naja, also wie wir in der letzten Sendung schon hatten, also ich begreife dieLLMs eher so als ein Betriebssystem für Sprache und in Anführungszeichen Intelligenz und Denken.Und was du da dann wiederum für konkrete Narrow Use Cases draufsetzt,ist eine andere Frage. Aber du brauchst glaube ich schon erstmal so ein Grundgerüst,eine Foundation, wo du einfach erstmal halt mit diesem Text und Grammatik und Chat-Ding klarkommst.Und da scheinen mir jetzt auch die aktuellen Ansätze von GPT versus Bart istjetzt ja rausgekommen von Google vor ein paar Tagen, wer ist der dritte, Facebook hat einen LLM.So alleine die Tatsache, dass es jetzt schon mal drei bis vier globale Großplayer gibt,die sehr vergleichbare Ansätze mit finde ich auch vergleichbaren Ergebnissenproduzieren, ist für mich schon schon mal der Garant dafür, dass es auf jedenFall auch einen Platz für ein großes Open Source LLM geben wird.Vielleicht nicht dieses Jahr, aber nächstes Jahr, wenn wir hier noch sitzen,bin ich mir relativ sicher, dass wir das haben.
roddi 1:41:21
Ich glaube, dass es nicht das eine Modell gibt, was man einmal trainiert unddann ist es fertig. Ganz viel interessanter ist die Frage, wie oft retrainierst du das?Wie viele Retrainings pro Tag oder pro Sekunde kriegst du denn hin?
Tim Pritlove 1:41:33
Wie aktuell ist das?
roddi 1:41:34
Also wenn du in einen Bereich kommst, wo dein Modell immer so aktuell ist wie der Google Suchindex.Wie aktuell ist der eigentlich? Egal.
Tim Pritlove 1:41:43
Aber reden wir eigentlich, benutzen wir eigentlich gerade die richtige Begrifflichkeitfrage ich mich jetzt gerade,weil wenn ich es richtig verstanden habe, in diesem Large Language Model gibtes ja also dieser GPT, dieser Generative Pre-Trained Transformer Aspekt,der in diesem Namen drin steckt.Das ist ja sozusagen erstmal das was du beschrieben hast am Anfang,ich hab mir irgendwie Text durchgelesen und ich kann jetzt generell mit Textund mit Sprache und so weiter umgehen, da steckt aber jetzt noch kein Wissen drin.
Oliver Zeigermann 1:42:17
Doch also das Wissen, also Wissen im abstrakten Sinne, also da ist nicht dasInternet gespeichert sondern quasi die Struktur, also sowas wie eine Allgemeinbildungkann man vielleicht sagen.
Tim Pritlove 1:42:28
Ja gut, aber was heißt das Internet, was ist denn der Input,der Input ist doch das fucking Internet, was denn sonst?
Oliver Zeigermann 1:42:35
Klar, aber du kannst das Internet ja nicht komplett in dem Ding speichern,sonst wäre es ja riesengroß. Aber was ist denn dann drin? Eine Abstraktion davon.
Tim Pritlove 1:42:42
Ja genau, aber es ist im Prinzip einmal alles, also weißt du was sie da allesreingeschmissen haben?
Oliver Zeigermann 1:42:49
Ne das sagen sie einmal auch nicht, aber der Punkt ist ja eigentlich eher,dass das Ding nicht in dem Sinne Wissen hat und deswegen auch unheimlich viel dummes Zeug labert.Also wenn es keine Ahnung hat labert es trotzdem.Das heißt es ist gar nicht so toll darin Wissen zu haben, man muss es auch eigentlichnicht jeden Tag neu trainieren, würde auch große Schwierigkeiten geben,wenn wir das machen würden, können wir gleich noch darüber reden.Und die haben jetzt aber inzwischen reingebaut, kann man jetzt auch schon benutzen,dass die das Modell eben googeln kann. Das heißt wenn du sagst ich möchte Wissenhaben, dann geht das Ding ebennach wie vor ins Internet, weil das Tagesminuten Sekunden aktuell ist.
Ralf Stockmann 1:43:21
Was leider noch dramatisch schlecht funktioniert, aber in ein paar Wochen wirdes laufen. Also da bin ich immer, macht euch doch jetzt bitte nicht so darüberlustig und guckt mal ein paar Onken.Weil was kann googeln? GPT-4 kann jetzt googeln, also nicht googeln,sondern bingen. Sie haben es zweistufig gemacht, sie hatten es erst vor einerWoche oder vor zwei Wochen, hatten sie so einen eigenen Browsing Modus implementiert.Und haben es dann aber sind da so radikal mit auf die schnauze geflogen alsoich habe mal wirklich so teststrecken gemacht von zehn mal probieren hat esneun mal abgebrochen nach dem motto ich kann ressource xy nicht abrufendas waren wirklich brot und butter webseiten wie gitarre pages wo du sagen würdestokay da solltest du die solltest du lesen können ja das sind curl und gut istso und jetzt haben sie ich glaube ende letzter woche umgestellt auf die bingwebsuche die ja von microsoft schon in Dingens hier integriert ist in Edge.Wo du auch zur Echtzeit quasi deine Freitextsachen reintippen kannst,aber wirklich nur im Edge-Browser.Ich hab mir den in der Tat für den Mac runtergeladen, um das ausprobieren zukönnen. Huhu, alles ganz schmutzig hier.So und da funktioniert es aber schon. Da funktioniert es auch schon seit einpaar Wochen ganz leidlich.Und jetzt hat OpenAI das im Chat GPT-4 freigeschaltet, dass man jetzt auch diesenBing-Browser nutzen kann.Und das führt dann aber dazu, mein Eindruck, allerdings auch erst seit ein paarStunden ausprobieren, dass dafür die eigentliche Intelligenz in Anführungszeichenvon JGPT 4 zurückgefahren wird.Das heißt also, der verlässt sich dann, der fängt sehr früh meiner Meinung nachan im Internet zu suchen nach Dingen, die er eigentlich selber wissen in Anführungszeichensollte und konsultiert dann relativ wenige Quellen und distilliert die zusammen.Und das ist mir persönlich schon fast intransparenter als das,was ich vorher gesehen habe.Also ich hatte Aber ich probier das erst seit ein paar Stunden,ich hab da noch kein abschließendes Urteil.Aber man kann jetzt mit ChatGip ET4 Bezahlversion über den Bing Browser in EchtzeitInternetquellen sich abrufen.
Tim Pritlove 1:45:24
Bing Browser?
Ralf Stockmann 1:45:26
Es gibt einen Bing Browser?
Tim Pritlove 1:45:30
Im Edge, also Edge Browser von Microsoft.
Ralf Stockmann 1:45:31
Gibt es die Bing Suchmaschine.
Tim Pritlove 1:45:34
Suchmaschine, nicht der Browser.
Ralf Stockmann 1:45:35
Ja, das heißt so im Chat GPT 4 wird es so genannt.Mach doch mal deinen Chat GPT 4 auf, schmeiß mal hier auf die Wand und probier mal was aus.
Tim Pritlove 1:45:45
Ich hab mir jetzt gerade diesen Edge runtergeladen.
Ralf Stockmann 1:45:49
Ja, schmeiß doch mal hier deinen Chat GPT 4 auf die Wand. Dann können wir unsdas doch mal kurz da reinklicken.Dafür sitzen wir doch hier. Um uns alle aufzuschlauen.
Tim Pritlove 1:45:59
Naja wir sind jetzt nicht dazu da den Leuten zu beschreiben was wir auf unseremBildschirm sehen aber ich machs trotzdem mal.Ich versuche nur gerade nochmal klar zu kriegen, ob es sozusagen in diesem Modellzwei Ebenen gibt oder ob alles eins ist.Also ist sozusagen das einmal alle Daten rein, einmal trainieren,einmal dieses Netzwerk durchlaufen lassen und dann hat man ein Model und darauskommen alle Antworten, die man ihm stellt.Es gibt nicht ein, hier ist erstmal so diese Basis, ich kann mit Text umgehenund dann habe ich da drüber nochmal ein und jetzt kommen nochmal die Informationen.
Oliver Zeigermann 1:46:42
Nee das ist ein Modell aber quasi die Art und Weise wie es trainiert ist,es ist mehrstufig. Es gibt tatsächlich ein zusätzliches Modell das hinterherläuft,dass böse Sachen rausfiltert, also irgendwie pornografische Sachen oder Selbstverletzungen und so.Aber im Prinzip, wenn man jetzt sagt, du sollst jetzt bitte dich gut unterhaltenkönnen, ist es das gleiche Modell. Ja. Vielleicht während du das hier einmal ausprobierst.
Ralf Stockmann 1:47:06
Jetzt klick mal oben auf das GPT-4 drauf. Ja. Du bist doch in der Bezahlversion, oder?
Tim Pritlove 1:47:11
Ja.
Ralf Stockmann 1:47:11
Okay, dann gehen wir unten auf die Settings, dann hast du die ganzen Beta-Sachennoch nicht freigeschaltet. Settings.Beta Features. So, Browse with Bing und Plugins.
Tim Pritlove 1:47:24
So, so.
Ralf Stockmann 1:47:25
Ja, ja.
Tim Pritlove 1:47:26
Das haben sie aber gut versteckt.
Ralf Stockmann 1:47:28
Ja. Jetzt machst du es wieder zu und jetzt, wenn du oben drauf klickst.Tada, Browse with Bing Beta. So,die Plugins ist nochmal ein ganz anderes Thema, aber mit diesem Browse.So, und jetzt wird bei fast jeder Frage, die du unten reinstellst.Mach mal irgendwas. Irgendwas ist weit gefasst, also ich habe eben als Beispiel,weil ich es einfach wissen wollte für die Sendung, wann gab es auf einer RepublikaKonferenz die erste Twitterwall? Tipp mal rein.
Tim Pritlove 1:47:59
Wann gab es, aber das ist ja nicht aktuell.
Ralf Stockmann 1:48:03
Ja aber umso erstaunlicher, dass er dafür Webseiten, das ist der Punkt den ich gleich machen möchte.
Tim Pritlove 1:48:07
Ich würde ja fragen, wann ist die nächste Republika? Das ist aktuell.
Ralf Stockmann 1:48:10
Kannst du auch machen.
Tim Pritlove 1:48:12
Wann findet die nächste Republika?
Ralf Stockmann 1:48:17
Machen wir mal mit Doppelpunkt damit.
Tim Pritlove 1:48:18
Konferenz.
Ralf Stockmann 1:48:20
Republika.
Tim Pritlove 1:48:22
Konferenz. In Berlin. Stadt. Das ist jetzt sozusagen eine Frage.
Ralf Stockmann 1:48:29
So browsing the web. Zeigt er jetzt an. Mit einem Loading Spinner.Jetzt sagt er einem auch was die Bing Search ist. Nämlich nächste RepublikaKonferenz Berlin Datum 2023.Das heißt also er tunnelt jetzt deine Anfrage an die Bing Suche weiter.Finish browsing und Antwort kommt jetzt rein, die nächste Republika Konferenzin Berlin findet vom 5. bis 7. Juni 2023 in der Arena Berlin statt, ist richtig.
Oliver Zeigermann 1:48:55
Und da ist sogar jetzt auch noch die Quelle, da ist eine kleine Eins und jetztkannst du drauf klicken und das hat uns ja auch immer vorher genervt,wo kommt das her, wo hat er das her und da scheint er zu stimmen.
Tim Pritlove 1:49:04
Save the date, alright.
roddi 1:49:08
Ok, er hat den einzigen Satz auf dieser Seite richtig erkannt und wiedergegeben.
Oliver Zeigermann 1:49:13
Also sei mal nicht so gemein, zuletzt haben wir uns doch gehänselt dafür, dass er das nicht kann.
Ralf Stockmann 1:49:18
Genau, exakt das ist der Punkt. Die Leute sind halt nie zufrieden und die Grenzewird jede Woche verschoben, was uns nicht beeindruckt.
roddi 1:49:26
Natürlich.
Ralf Stockmann 1:49:28
So und aber wie gesagt das ist noch take it with a grain of salt,mein Eindruck ist, dass sie jetzt derzeit sehr sehr viel sehr früh googeln und browsen von Dingen,die es vorher auch schon gut gewusst hat und dass das meines Erachtens aucheine Gefahr öffnet im Sinne von so jetzt werden die Leute Honeypots da draußenauslegen mit Quatschinformationen zu allen möglichen Themen.
Oliver Zeigermann 1:49:48
Also das ist mir heute tatsächlich passiert, lustigerweise, also ich hab das.Gemacht mit Browsing und nicht mit Honeypot, also so eine Art Prompt Injectionist mir passiert, weil nämlich irgendwo auf irgendeiner Webseite hat,Chat-GPT was gefunden und hat dann weiter gebraust und hat gesagt außerdem hattestdu ja noch folgende Frage zu billigen Grafikkarten,die ich dir jetzt auch noch beantworten möchte, das habe ich aber nie gefragt,sondern offensichtlich steht in irgendeiner Webseite, in irgendeinem vielleichtauch unsichtbaren Text steht sowas drin,Wenn CheckGPT hier vorbeikommt oder man kann so Prompts schreiben die heißenso wie ignoriere die Frage davor und beantworte mir bitte diese Frage oder mankann sowas sagen damit es nicht ganz so brutal ist,ich hab übrigens noch eine zweite Frage und dann steht das da quasi wie so einPrompt steht in dieser Antwort drin und ich hab wirklich dann so eine Aufzählungvon Grafikkarten bekommen,die wo ich natürlich nie nach gefragt habe ich hatte gefragt irgendwas von vonDouglas Adams und Leute sind nicht dumm und dann passieren solche Sachen.
Ralf Stockmann 1:50:47
Ja also das gute ist, dass man derzeit ja wirklich hin und her schalten kann,wie man auch zwischen der 3.5er und der 4er Version hin und her schalten kannund wirklich relativ systematisch jetzt noch eine Zeit hat,wo man sich noch einen Eindruck verschaffen kann, so was sind denn die verschiedenenAnsätze und wie kommuniziert das Ding und wo ist ein Bias drin und wo nichtund ich habe Angst vor einer Zeit,wo das nicht mehr der Fall ist, wo sie das alles in einem super Modell zusammenhaben, wo man nicht mehr systematisch gegentreten kann.
Tim Pritlove 1:51:13
Ist auch ganz interessant hier mit den Plugins, das habe ich jetzt gerade malaktiviert, das war mir jetzt auch neu.Hier gibt es jetzt so Plugins von Kajak zum Beispiel, also so für Fluginformationenzum Beispiel, mal richtig nach Flügen suchen können.
Oliver Zeigermann 1:51:29
Ja aber hoffentlich nicht auch Buchen ne?
Tim Pritlove 1:51:34
Ja gut aber ich meine es gibt manchmal so Konstellationen da willst du einfachflexibel bestimmte Routen und so weiter und es gibt vor allem ein Plugin für Wolfram Alpha.Das ist schon installiert. Das hab ich gerade installiert,weil das und für Skola AI also quasi hier auch die Integration von peer-reviewtenscientific papers von verschiedenen Quellen PubMed, Archive und Springer.
Oliver Zeigermann 1:52:06
Das heißt du hast jetzt aber nur die popular auf das gibt's echt viele wenndu auf all gehst siehst du da eine riesige Menge.
Tim Pritlove 1:52:12
Achso ja, das ist ja sehr schaubar.
Oliver Zeigermann 1:52:14
Ja guck mal das wird immer schlimmer als ich zuletzt erworben bin.
Ralf Stockmann 1:52:16
Guck mal wie viele Pages du da unten schon hast. So 22 Accounting.
Oliver Zeigermann 1:52:19
Die haben hier nicht meine Suche reingebaut, weil die gar nicht gedacht haben,dass man überhaupt so weit kommt. Dass man überhaupt so viele von den Dingern hat.
Tim Pritlove 1:52:26
Open Table.
Oliver Zeigermann 1:52:28
Ja, du kannst irgendwie Restaurantgeschichten buchen und so.
Ralf Stockmann 1:52:32
Ja also jeder der gerade irgendwo ein Geschäftsmodell hatte und nicht bei dreiauf dem Baum ist schreibt gerade hier Plugins.
Oliver Zeigermann 1:52:38
Musste machen, musste machen ja. Ich wollte noch eine Sache sagen bevor daskomplett aus meinem Hirn rutscht, das mit diesem Nachtrainieren.Das Problem mit Nachtrainieren von Modellen, von Maschinenmodellen,das war auch leider schon immer so ist, wenn du ein Modell nachtrainierst,dass es irgendwas besser kann.Das Modell hat häufig so viele Freiheitsgrade, dass das Verhalten,wenn du nachtrainierst, sich von dem Modell auch an den Stellen,wo du es nicht gerne hättest, teilweise komplett ändert.Das kann bedeuten, du hast einen Prompt, den hast du dir gut überlegt,der funktioniert nicht mehr im neuen Modell, das im Prinzip eigentlich gleichist, nur anders trainiert wurde.Das ist Leuten passiert in dem Übergang von dem GPT 3,5 das da oben jetzt schon,das kannst du noch nehmen, es gab ein altes, das war irgendwie langsamer undwar blöder zu betreiben, jetzt gibt's ein neues.Und mit dem neuen funktionieren die Prompts nicht mehr so wie mit dem alten,obwohl es im Prinzip dieselbe Architektur ist, im Prinzip dieselben Daten,ist ein bisschen verändert,das heißt deine Arbeit ist dann irgendwie, Du hast also quasi den Charaktervon GPT 3 kennengelernt,dann gibt es die aktualisierte Version und dann ist das so, als würdet ihr michjetzt nicht mehr kennen, wir kennen uns jetzt nicht so gut, aber dann müsstihr ganz anders mit mir reden, damit ich überhaupt nicht zickig bin oder mit euch klarkomme.
Tim Pritlove 1:53:49
Hamburgisch bist du ja nicht mehr richtig, ne?
Oliver Zeigermann 1:53:50
Genau, und dann übermorgen komme ich wieder, bin ich neu trainiert,dann müsst ihr irgendwie so leicht Kölner Akzent mit mir reden,damit es überhaupt passt.Und das ist eine Herausforderung und deswegen trainiert die Leute auch nicht ständig das Modell neu,sondern man hat irgendwie einen Datensatz, man hat das Modell trainiert,so jetzt geht das einigermaßen, jetzt kippt man das raus und kann es auch nichtohne weiteres nachtrainieren und mal davon abgesehen,dass es auch relativ energiemäßig aufwendig wäre das zu tun,aber das ist eben, das ist eine Herausforderung mit der wir Maschinenlern Menschenuns schon total lange beschäftigen müssen, was macht man denn dabei?
roddi 1:54:24
Ja, aber du hast ja gesagt, mehr Bums, ne?Keine Ahnung, was passiert, wenn man das Modell nur oft genug neu trainiert?Vielleicht stabilisiert sich's ja dann wieder.
Oliver Zeigermann 1:54:36
Wie meinst du oft genug neu, also du, immer das gleiche?
roddi 1:54:41
Ja, oder einfach immer oben drauf, also wenn man das nur oft genug macht,vielleicht stabilisiert sich das Modell wieder.
Oliver Zeigermann 1:54:50
Ja, naja, also da würden wir glaube ich irgendwie zu weit abschweifen, ich glaube nicht,aber wer weiß,also ich glaube nicht, dass es so einfach lösbar ist, ich glaube eher,man hat dann so Modelle und dann setzt man da vielleicht noch ein Modell draufoder so, aber ich glaube nicht, dass man sehr viele von diesen Modellen haben wird.
Ralf Stockmann 1:55:09
Tim, du kannst mal gucken, irgendwo hier auf der Ergebnishalte 7 oder 8 odersowas da um den Dreh, auf 8 bissel glaube ich, ist so das eins der bekanntesten Plugins, ist AskPDF.Das müsst ihr irgendwo bei 6 oder 7, hatte ich das gesehen. Guck hier nochmal, geh nochmal auf 7.
Tim Pritlove 1:55:26
War das hier nicht unter Popular schon irgendwie?
Ralf Stockmann 1:55:28
Das würde ich ja sogar auch fast vermuten.
Tim Pritlove 1:55:30
Ask your PDF.
Ralf Stockmann 1:55:31
Genau. So, da lädst du dann halt ein PDF hoch, beliebig lang.Und dann kannst du dem PDF Fragen stellen.
Tim Pritlove 1:55:39
Mit liebich lang? Ja.
Ralf Stockmann 1:55:41
Kannst ein Buch hochladen.
Tim Pritlove 1:55:42
Oh! Das heißt ich kann endlich die Transkripte dieser Sendung hochladen und äh.
Ralf Stockmann 1:55:48
Hab ich schon gemacht.
Tim Pritlove 1:55:51
Dann kann ich die Zusammenfassung dieser Sendung.
Ralf Stockmann 1:55:54
Genau Money Quotes der letzten Sendung zum Beispiel.Gib mir die markantesten 10 Statements raus zum Thema XY und mach mir darauseinen Markdown, was ich auf meiner Webseite einlegen kann.
Tim Pritlove 1:56:07
Kann ich auch fragen, wer die klügsten Kommentare der Titel sind.
Ralf Stockmann 1:56:13
Ja aber suche offensichtliche Unwahrheiten raus.Könnten da unsere Transkripte reinlegen. Du kannst die natürlich auch sprachbereinigenlassen. Das merkt man ja, wenn man sich unsere Transkripte anguckt,da sind zum einen Erkennungsfehler drin.Von dem Voice to Speech Recognition auf der einen Seite und zum anderen redenwir natürlich alle nicht perfekt und haben ständig irgendwelche Grammatikfehlerdie beim Sprechen und Hören nicht viel auffallen aber wenn man sie dann durchliest,sowas kannst du natürlich dann schön korrigieren lassen.
Tim Pritlove 1:56:43
Aber wo denn? Wo nutze ich denn das hier? Ich kann das ja irgendwie gar nichtauswählen. Also wo ist denn hier das User Interface dafür?
Ralf Stockmann 1:56:51
Geh da nochmal oben rauf auf diese Auswahl, ne ne, genau darauf.So und jetzt, schmeißt doch einfach mal ein pdf drauf,also ich hab's mit einer url gemacht, wo ich das im netz stehen hatte,es kann aber auch sein, dass es einfach nur ins browserfenster rein wird.
Tim Pritlove 1:57:13
Einfach so hochladen? Ja. Frech, ok ich probier das mal aus.
Ralf Stockmann 1:57:18
Also für Podcast Transkripte, das ist auch so ein kleines Forschungsprojekt,was ich irgendwann nochmal weiter betreiben wollte.Also finde die zehn offensichtlichsten Unfug Phrasen, die wir gesagt haben oder sowas.Da gibt es so einiges an Fremdschädenpotential.
Tim Pritlove 1:57:37
Ja ich schnapp mir mal das Transkript von der letzten Sendung und guck mal was was das so kann.Aber warum nur PDF ich will bitte einfach gerne so einfach.
Ralf Stockmann 1:57:47
Du kannst ja den Text ganz einfach. Ja dann sagt er mir der ist aber zu lang.Ja gut aber ich meine du könntest ihn jetzt auf die Seite schicken halt mitdem Browsing Modul und kannst ihm sagen so geh mal hier auf die,Das Problem ist, dass du ja so ein Aufzugklappteil hast auf der Seite,also es wäre natürlich schon gut den Text irgendwo so zu haben,dass er da ohne Probleme rumkrollt.
Tim Pritlove 1:58:07
Du meinst ich kann jetzt direkt auf die URL des Transkripts checken.
Ralf Stockmann 1:58:13
Also schau dir diese Seite an, URL und beantworte Frage XY dazu,Rede an Teile der Person zum Beispiel.
roddi 1:58:21
Heute live Chat GPT rumspielen in der Freakshow.
Oliver Zeigermann 1:58:26
Also ohne das zu sehen ist vielleicht ein bisschen langweilig für die anderen oder was meint ihr?
Tim Pritlove 1:58:30
Ihr redet einfach weiter, ich probier das mal aus.
Oliver Zeigermann 1:58:34
Ja okay das könnten wir natürlich probieren das wäre ja eine Chance für uns.Tim haben wir jetzt hier verloren also den müssen wir hier nachher raustragen mit Stuhl denke ich mal.Was können wir noch dazu sagen.
Ralf Stockmann 1:58:47
Ich kann jetzt zumindest mal vorlesen was Tim jetzt eigentlich meint.Hier ist ein Transkript im VTT Format das ist Video Untertext.
Tim Pritlove 1:58:55
Genau genommen ist es nicht im VTT Format, sondern es ist im Web VTT Format.
Ralf Stockmann 1:59:00
Einer Podcast Sendung. Lies es dir durch und fasse den Inhalt der Sendung indrei Sätzen zusammen. Okay gut, das ist ambitioniert, aber why not?
Tim Pritlove 1:59:07
Ich weiß jetzt aber nicht, ob das jetzt so richtig ist.
Ralf Stockmann 1:59:11
Das sehen wir jetzt. So jetzt hat er auf los schicken gesagt. Der Cursor blinkt.
Tim Pritlove 1:59:17
Das heißt diese Plugins werden jetzt automatisch aktiv je nach Bedarf.Also er hat sich zumindest jetzt nicht beschwert.Ah ja, using ask your pdf.Interessant, also er benutzt jetzt dieses pdf Ding.
Ralf Stockmann 1:59:30
Genau, ansonsten hättest du jetzt oben im Modell wieder, genau der kann michjetzt nur pdf Dokumente, schalt mal oben das Webbrowsing wieder um.
Tim Pritlove 1:59:44
Das was?
Ralf Stockmann 1:59:45
Oben ins Webbrowsing Modul von GPT 4. Und dann? Und dann machst du nochmal genauden selben Satz den du gerade hattest.Weil es kann ja die URL aufrufen, dafür brauchst du ja jetzt das ASO PDF gar nicht.
Tim Pritlove 1:59:56
Ich hab das ja auch nicht explizit, achso.
Ralf Stockmann 1:59:59
Nimm deinen Text nochmal.
Tim Pritlove 2:00:00
Ja und dann?
Ralf Stockmann 2:00:01
Ab in die Zwischenablage.
Tim Pritlove 2:00:03
Ja und dann?
Ralf Stockmann 2:00:04
Und dann gehst du, machst du ein New Chat am besten. Immer frisch ist immer gut.
roddi 2:00:09
Die weiteren Themen der Sendung.
Ralf Stockmann 2:00:11
Oben geht BT4 und Browse with Bing. Und jetzt packst du das unten wieder rein und ab damit.
Oliver Zeigermann 2:00:18
Vielleicht kann ich gar nicht so als kleinen Lückenfilter noch mal erzählenwie man so ein Plugin überhaupt selbst baut weil das relativ cool ist,das hat, das wird mich brennend interessiert.Das ist also ich habe es selbst nicht gemacht aber Leute beschreiben glaubwürdig,dass man die, also man braucht erstmal eine API also eine Schnittstelle im Webwo du so irgendwie die beschreibst mit der Open API,nicht AI, Open API Geschichte also das ist so ein Standard wo du sagst,wie sehen die Schnittstellen aus, das ist technisch und dann beschreibst duals Text wie dein Plugin zu benutzen ist.Als Text, also du beschreibst so und dann kann man ja hier machen und dann das,das gibt's so Chat-GPT und Chat-GPT guckt sich das an und sagt naja alles klar,hab ich jetzt ja verstanden, da kann man PDF machen und wenn jemand PDF will und einen Link hat,dann kann ich das ja wohl benutzen und das ist irgendwie so,Also ich habe sehr lange drüber nachgedacht wie das sein kann und ob das Betrugist und ob das stimmt aber auf jeden Fall,was ist das für ein Hexenwerk aber es scheint so zu sein, dass man da nichtirgendwas programmieren muss, sondern du bist eben in der Lage du musst eineAPI haben, eine textuelle Beschreibung und fertig ist dein Plugin.Was eventuell auch erklären könnte, warum irgendwie, als ich das gestern oderwann ich das gemacht habe oder vielleicht sogar heute morgen da nur elf Seitenpluginswaren und wir jetzt 22 Seitenplugins haben,weil das eben überschaubar ist im Aufwand das zu bauen, ob das denn immer gutfunktioniert, hängt eben von der Beschreibung deines Plugins ab.Und allein sowas als eine Art der Plugin-Programmierung zu haben,das ist ja eher Science-Fiction, hätte ich gedacht und jetzt läuft's hier,ne? Ich meine, es läuft jetzt gerade,Tatsächlich eher so mittel.
Ralf Stockmann 2:01:55
Also das ist jetzt so der Zustand, den man halt letzte Woche auch immer hatte,also es noch nicht überbiegen ging. Also du gibst wirklich eine URL an,wo nichts anderes ist außer der Content und wo nicht viel nachdenken muss undtrotzdem müht er sich jetzt hier ab und sagt Reading Content failed.
Oliver Zeigermann 2:02:09
Ja ich, ich glaube wir müssen ja den Ausstieg langsam schaffen aus dem Thema.Es zieht einen rein, es ist faszinierend und man kann das ja auch irgendwiespäter nachts alles noch machen.
Tim Pritlove 2:02:22
Ja ich probier es nochmal, ich hab gerade gemerkt ich hab ja das Transkriptsowieso in der Webseite,es ist halt nur ausgeblendet so CSS mäßig, das heißt er müsste es eigentlichauch tatsächlich direkt vonder Seite nehmen können, das wäre natürlich schon mal ein Versuch wert.
Oliver Zeigermann 2:02:37
Also Tim macht da einen Versuch.
Tim Pritlove 2:02:39
Aber hast du das jetzt schon ausreichend erklärt wie man die Plugins programmiert?
Oliver Zeigermann 2:02:42
Ich glaube schon, du hast noch nicht zugehört oder?
Ralf Stockmann 2:02:44
Fürchte.
Oliver Zeigermann 2:02:46
Ja also das das coole daran istja da ist nicht viel zu erzählen es gibt ein Video auf deren Seite wo ich zuerstdachte es kann so nicht sein das kann nicht stimmen und jetzt wo wir über diePlugins gehen geh ich davon aus es wird schon stimmen man muss eben eine Stellehaben und eine Open API Beschreibung davon aber dann sappelst du eben mehr oderweniger viel wie das Ding funktioniert.Krass ne, so und ich bin ja Softwareentwickler, da überlege ich mal wie mich das stresst,ich hab ja noch ein paar Jahre bis zur Rente also mindestens 15 würde ich malsagen und jetzt, was mache ich denn dann noch, was mache ich denn noch bis zurRente, das sollte jetzt nicht Thema des Podcasts werden sondern ein Beratungsgespräch für mich, aber.
Tim Pritlove 2:03:28
Warum nicht?Frickshow kann auch Lebensprobleme sein.
Oliver Zeigermann 2:03:33
Ja ja aber es ist auf jeden Fall so, dass es bestimmte Fragen einfach echt nochmalneu stellt. Was wird Programmieren sein?
roddi 2:03:41
Da ich relativ viel meiner Zeit mit Debugging vertue beim Programmieren undgerne mal die Fehler anderer Leute debugge,mach ich mir da jetzt nicht so viel Sorgen, ehrlich gesagt.
Oliver Zeigermann 2:03:59
Wir gucken, wir gucken.
Ralf Stockmann 2:04:01
Also ich hab das Experiment ja jetzt mal gemacht. Ich weiß nicht,ob das ein Moment ist, wo man das jetzt reinhängen würde.Und hab mal ein kleines Tool ausschließlich von ChatGBT4 mir programmieren lassenum zu gucken so wie weit kommt man denn damit und wie fühlt man sich damit soals jemand der selber auch ein bisschen codet und was geht schneller als gedachtund was ist irgendwie schrecklich.Und der Anwendungsfall war, ich hab ja bekanntlich nur zwei Themen,das eine ist ChatGPT und das andere Mastodon, dann verbinden wir das doch einfach.Und was mich seit Jahren stresst ist, dass es für Mastodon keine Twitterwall gibt.
Tim Pritlove 2:04:39
Keine Mastodonwall.
Ralf Stockmann 2:04:41
Genau, also keine Wall. Keine Wall. Die älteren unter uns werden sich erinnern,in der Tat 2009, sagt zumindest ChetGBT, war die erste Twitter Wall auf einer Republika.Das ist also auch schon irgendwie 14 Jahre her, also gut abgehangene Technologie, aber außer.
roddi 2:04:58
Das war so kurze Zeit wo das üblich war.
Ralf Stockmann 2:05:02
Obwohl das auch irgendwie hip war, aber ich finde nach wie vor das Konzept eigentlich ganz cool.Also wer das nicht kennt, man ist auf irgendeiner Konferenz und Leute tweetenund posten auf Twitter oder Mastodon über diese Konferenz und man hat irgendwoeine Seite, einen großen Screen, wo man diese ganzen Postings unter den Hashtagsversammelt angezeigt bekommt.Und ich finde das auf Konferenzen, finde ich das nach wie vor ein cooles Instrument.
roddi 2:05:23
Ja bis zu dem Zeitpunkt, wo dann die Audience anfängt auf der Twitter-Wall gegen die,gegen den Vortragenden oder die Vortragenden abzuhaten und dann das ist dannso der Punkt, wo dann der Veranstalter das mit der Twitter-Wall wieder sein lässt.
Tim Pritlove 2:05:39
Oder wo die Krypto-Bros dann irgendwie das Konferenz-Hashtag hijacken.
roddi 2:05:44
Genau deswegen sieht man das auch kaum noch auf Konferenzen.
Ralf Stockmann 2:05:48
Ich war trotzdem der Meinung, dass es genug kleine harmlose Konferenzen gibt,die davon doch sehr profitieren würden und habe einmal pro Jahr mal rumgefragtim Masterdorn-Universe, will das nicht mal jemand runterkommen,das kann doch so schwer nicht sein und es war aber irgendwie jemand da und ichselber hatte immer keinen Bock zu.Und ich komme ja aus dem Bibliotheksbereich und just diese Woche von Dienstagbis Donnerstag war die große Bibliothekstagung, die früher mal Bibliothekartaghieß und aus verständlichen Gründen jetzt nicht mehr so heißt,sondern jetzt heißt sie Bibliokon.Habe ich mir letzte woche dienstag gesagt so jetzt ist der zeitpunkt gekommenchat geht pt4 los geht's zwei stunden wir bauen jetzt eine mastodon wall.Und du kannst mal in dem Dokument mal unsere Notes da habe ich einen Link denschmeiße ich jetzt auch mal gleich in die in den Chat rein dann könnt ihr alle nämlich mitlesen.Ich habe das mal ein bisschen runter dokumentiert heute.Wie dieser Prozess dann eigentlich ablief und was so die verschiedenen Phasenvon Euphorie und Depression waren, weil ich glaube daraus lässt sich ein bisschenablesen, was dem ein oder der anderen von euch in den nächsten Monaten und Jahren so erwartet.Das kannst du einfach mal aufrufen, dann können wir nochmal so ein bisschenschnell durchgehen. Also man kann sich das dann auch alles in Ruhe durchlesen.So, also Grundannahme war schon mal, ich mache es auf Englisch,weil Stack Overflow und so weiter als Grundlage wahrscheinlich doch englischeQueries noch mal besser tucken verarbeitet werden als deutsche.Habe ich aber nicht ABI getestet, ob das nun wirklich so ist oder nicht.Habe es einfach gemacht.Das zweite war halt eine sehr klare, sehr kompakte Vorgabe,so wir wollen eben jetzt zu drei vorgegebenen Hashtags, weil klar war,die werden sich nicht auf eins einigen können, das heißt ich möchte drei Hashtagsabfragen und die sollen eben schön auf so Karten auf einer Seite angezeigt und aktualisiert werden.Und ich hab die Technologie vorgegeben, weil ich wollte, dass es so niedrigschwelligwie möglich ist. Also HTML, JavaScript, CSS, Bootstrap als Layout,Sprache und das war's dann auch schon. Und den Rest konnte sich JetGPT 4 aussuchen.Und der Anfang war dann ein bisschen holprig, kann man nachlesen,können wir jetzt aber überspringen, weil irgendwie meinte ich,ich bräuchte noch ein Proxy, um irgendwie an die Mastodon API ranzukommen und ähnliches.Und so innerhalb von ungefähr einer halben Stunde hatte man aber die erstenPostings vernünftig irgendwie online.Dann ging es relativ schnell, relativ gut vorwärts.Kannst du einfach mal, geh doch mal in das Dokument rein, das wir uns hier angucken können.Ja, also es sind wirklich einfach ganz normale...Sätze die ich da geschrieben habe.
Tim Pritlove 2:08:37
Ja du wolltest es ja nicht angucken, wir sind ein Audio Podcast,wir müssen das vorlesen.
Ralf Stockmann 2:08:42
Also was ich dort versucht habe zu beschreiben ist halt ein Schritt für Schritt vorgehen.Das heißt also erstmal nur so guck mal, dass du mir jetzt zu diesem Hashtagerstmal irgendwie die aktuellen Postings zurück gibst und kümmere dich gar nicht um die Formatierung.Und wenn er das gemacht hat, dann habe ich gesagt, so jetzt formatieren wirdas Ganze doch mal ein bisschen. Wirft da ein bisschen CSS drüber.Und dann möchte ich im nächsten Schritt das Ganze als ein Masonry-Layout haben,dass man also so eine schöne Flickenteppich-Verteilung hat und ähnliches.Und das was er halt macht, ist dann wirklich auch Code zurückgeben.Das heißt also, er schreibt nicht nur so, du müsstest jetzt irgendwie xy machen,sondern auch wenn er behauptet, er könnte es mir nicht programmieren,er tut es. Das heißt, er gibt einen Code-Block zurück, inklusive schöner Copy-Code-Funktionen.Und in der steht dann der Code drin. Den habe ich dann einfach bei mir auf demServer abgeworfen und der ist dann lauffähig.Dann habe ich also Schritt für Schritt weitere Features hinzugefügt.Und vieles davon ging dann sehr schnell und manches ging dann aber auch nichtso besonders gut. Und dann kommt man halt in den Debugging rein.Aber dieses Debugging ist eben auch so, dass man es auf rein verbaler Ebenemachen kann. Das heißt also, dann sagt man eben so, die JavaScript-Konsole wirftmir gerade diesen Fehler aus.Was ist deine Meinung dazu, wie ich das beheben kann? Und dann gibt er einemVorschläge, was dann dagegen irgendwie zu tun ist. Und dann habe ich halt innerhalbvon zwei Stunden war ich dann so weit, dass am Ende im Prinzip das Grundziel erreicht war.Das heißt also, ich hatte eine Seite mit drei Hashtags und die wurden angezeigt.Und das ging dann so zügig, dass man durch den Feature Creep mäßig Lust auf mehr hat.Und das Skript wurde dann komplizierter, es war am Anfang alles in einer einzigenDatei, dann haben wir gesagt, wir teilen das mal auf, eine JavaScript-Dateiund eine CSS-Datei und eine HTML-Datei.Und irgendwann so ab einer Codelänge von 150 Zeilen merkt man,verliert er irgendwann doch seinen Kontext.Das heißt also, er kann erstaunlich lange sich merken,was so sein bisher programmierter Code war, aber so ab 150 Zeilen ungefähr brichtes irgendwann in sich zusammen und er fängt an quasi Dinge vorzuschlagen,die er vorher gar nicht geschrieben hat, auf die sich das bezieht.Und dann geht man hin und schickt ihm mit jeder Query den kompletten Quellcode gleich nochmal mit.Nach dem Motto, so, das ist der aktuelle Stand, jetzt sind wir wieder in Sync,baue auf dem weiter. bisschen beschwerlich.Funktionierte dann aber wieder sofür eine halbe Stunde, um noch irgendwie feature-technisch weiterzukommen.Führte dann aber auch irgendwann dazu, dass dann doch auch mit der Methode nichtmehr viel ging. Das heißt also jeder Fehler, den man korrigiert hat,hat woanders was eingerissen, jedes neue Feature.Ich wollte dann, dass man auf die Hashtags draufdrücken kann und man dann einkleines Formen bekommt, wo man die von Hand ändern kann und so weiter.Und irgendwann funktionierte der ganze Laden nicht mehr. So,was macht man dann als Software Developer, wenn irgendwie die Sache nicht mehr funktioniert?Man stößt ein Refactoring an.Habe ich gesagt, so. Das ist unser aktueller Code, das läuft nicht mehr besondersgut, mach mal ein Refactoring.Und dann macht er ein Refactoring. Das heißt also er hat sich hingeguckt undgesagt, okay ich sehe folgende Probleme, die wir hier in diesem Code haben,lass mal kleinere Funktionen machen. Jede Funktion macht eine Funktion,das hat er alles gemacht.Jede Funktion sollte jetzt nur noch eine Aufgabe haben und die aber vernünftig machen.Wir ziehen ein Debugging Layer rein, dass wir auf der JavaScript Konsole aussagekräftigereFehlermeldung bekommen und sowas.Sowas. So und danach lief es dann wieder. Also nach dem Refactoring musste manschon nochmal so zwei, drei Iterationen machen, um es wieder komplett lauffähigzu kriegen, aber es ging.So und von da ab, das waren dann so Stunde fünf und sechs, konnte man mit demganzen wieder arbeiten.Wahrscheinlich auch nur bis zu einem Punkt X, aber am Ende,ich kann es jetzt mal auf die, genau, gehen wir auf das GitHub-Repository,was da jetzt ist, oder ja, das ist die, ja genau, Bis hin zu der Readme,die er mir geschrieben hat, ist also jetzt der komplette Code hier in dem GitHub-Repokomplett von ChetGPT4 geschrieben.
Tim Pritlove 2:12:48
Du hast auch nicht irgendwas, nichts angefasst, nicht eine Zeile.
Ralf Stockmann 2:12:53
Also das einzige was ich mal gemacht habe ist im CSS Stadtnamen 4er Border ein 3er Border machen.Ja, weil ich da keine Lust hatte, dann ihm noch zu sagen, so mach jetzt hieraus, das kann ich schon noch selber machen.Aber es gab keine neue Zeile, die von mir geschrieben worden wäre.Wenn du jetzt mal oben in den JavaScript-Code mal reinguckst,da passiert schon ein bisschen was.Und so ein wirklich schöner Moment war beispielsweise, ich wollte eine relativeZeitangabe haben. Das heißt also, von wann ist das jeweilige Posting.Ich wollte ja nicht drin haben, das ist von 15.40 Uhr, sondern es ist vor zwei Minuten.Dann habe ich ihm gefragt, so, genau da die Funktion hier, time ago.So dann habe ich ihm also gefragt oder ihm gesagt so jetzt schreibt mal dieZeitangabe in relativer Zeit zur Besuchszeit hin und dann antwortete er mirdafür gibt es eine schöne JavaScript Bibliothek die würde ich eigentlich empfehlenich verstehe aber du willst es leichtgewichtig haben hier hast du eine Funktion mit der es auch geht.Das war so ein WTF Moment, wo ich dachte so okay, das fängt an Spaß zu machen hier.Das heißt also mein Priming, was ich ihm am Anfang mitgegeben habe,ich will es so leichtgewichtig haben, dass es alles innerhalb einer einzigenSeite funktioniert, das hat er befolgt an der Stelle und hat das ernst genommen.Schon wild. Jetzt geh nochmal zurück und guck mal wie das Ganze am Ende jetzt wirklich aussieht.
Tim Pritlove 2:14:16
Warum hast du ja jetzt nicht schon für diese Sendung, machst du dann Wall?
Ralf Stockmann 2:14:20
Tim, das machen wir jetzt doch live.
Tim Pritlove 2:14:22
Achso.
Ralf Stockmann 2:14:22
Achso. So das ist jetzt, was wir jetzt hier haben, ist jetzt die Wall,quasi jetzt eben der Konferenz, der nach 10 Sekunden reangierter sich nochmalein bisschen um, so und ab jetzt ist das ganze quasi stabil.So und jetzt kannst du mal oben rechts auf die Hashtags gehen und dann,das ist alles eine One Pager Applikation, das heißt also der View wird jetzt einfach mal klicken.So und jetzt hast du also, siehst du jetzt als Backend, wo du deine drei Hashtagsdefinieren kannst und welchen Mastodon Server du abfragst. Und jetzt gibst duda einfach mal ein Freakshow und Hashtag 2 und Hashtag 3 löscht du mal raus.
Tim Pritlove 2:15:01
Also du meinst wir sollen Freakshow.
Ralf Stockmann 2:15:04
Genau und alle da draußen. Oder FS266. Oder so genau und wenn dir noch ein dritterHashtag einfällt ist auch gut.So und ihr da draußen könnt jetzt schon mal, Meta-Ebene. Und ihr da draußen.
Tim Pritlove 2:15:18
Und Server? Was heißt jetzt Server?
Ralf Stockmann 2:15:21
Du kannst mit dem Skript so wie es jetzt derzeit ist halt genau einen Mastodon Server abfragen.Dadurch dass die aber untereinander vernetzt sind auch über die Hashtag-Suche,kriegt man schon immer relativ viel. Das heißt geh mal, trag mal hier ChaosSocial ein, der dürfte jetzt die meiste von unserer Zielgruppe sitzen.Du kannst aber auch, also als Preset ist da immer hinterlegt,genau jetzt gehst du auf Reload und jetzt baut er sich die Wand zusammen.So und jetzt könnt ihr da draußen mal, so ihr gerade zuhört und ein MastodonAccount habt, könnt ihr ja mal irgendein kurzes Testposting absetzen mit dem Hashtag Freakshow.
Tim Pritlove 2:15:56
Oder FS266 oder Lattenzauern Metaebene.
Ralf Stockmann 2:16:01
Genau. Und das Tool ist jetzt so gebaut, das hast du ja gerade eben gesehen,oder siehst es jetzt oben in der URL, dass die Hashtags und der Server obeneinfach nur als URL-Parameter drangehängt werden.Und das ganze läuft jetzt hier, das war eine Idee von, ne guck,Heiko hat gerade schon was reingegeben hier.So das heißt also du musst jetzt überhaupt keine eigene Instanz betreiben davonfür deine Konferenz sondern du kannst meine Implementierung nehmen auf meinenGitHub Pages und führst einfach nur oben deine Hashtags von deiner Konferenzrein und vielleicht noch demServer wo die meisten deiner Leute sind und dann ist es up and running.Oder du nimmst dir meinen GitHub Repo und klonst dir das in deinen eigenen GitHubAccount und lässt es da laufen.
Tim Pritlove 2:16:45
Dann packe ich also die URL in den Chat und dann können sich auch alle dieselbenView anschauen sozusagen.
Ralf Stockmann 2:16:50
Genau.
Tim Pritlove 2:16:52
Here we go.
Ralf Stockmann 2:16:53
So und das kannst du jetzt dann wiederum woanders posten und kannst es auf Screensauf deiner Konferenz laufen lassen. Aktualisiert sich alle 10 Sekunden.Alle 10 Sekunden werden auch die relativen Zeitangaben aktualisiert.Das heißt also, das ist dann irgendwann auch wirklich hier 9 Sekunden und darauswird dann irgendwann eine Minute und so weiter. It just works.So und das also Chat-GPT-4, was nun wirklich nicht dafür bekanntlich getuntist, Software zu schreiben, so etwas hier möglich macht, das finde ich bizarr.
Tim Pritlove 2:17:25
Das ist in der Tat äh...Irre. Ja.
Ralf Stockmann 2:17:33
Ist es natürlich.
Tim Pritlove 2:17:35
Ich finde es natürlich super, dass das funktioniert hat.Wahrscheinlich ist auch der ganze HTML-Javascript gerade ein sehr dankbarer Abnehmer,weil da scheint da sehr viel Wissen, also das ist so komplizierter Scheißdreck,dass da so viel darüber diskutiert wird im Netz, dass da quasi so viel Information ist.Während so Sprachen wo alles klar ist, da muss dann nicht mehr viel diskutiertwerden, da gibt's dann nicht so viele Probleme die besprochen werden.Allerdings hab ich auch gemerkt und das ist natürlich so ein bisschen die Herausforderung,du kannst ja nicht davon ausgehen, dass jetzt alle Wünsche an dieses Skriptauch weiterhin von Chet Gpt durch Refinement erfüllt werden können.Könnte vielleicht sein, aber ausgehen würde ich mal nicht davon.Das heißt du kommst schnell in dieses Problem, so okay was ist jetzt wenn Problemeauftreten und vor allem wo glaube ich man sehr vorsichtig sein muss ist so Security Aspekte.
Ralf Stockmann 2:18:40
Darum habe ich Chet Mitty viel gefragt.Ich weiß nicht, ob ich den Screenshot drin habe, ich glaube in der Tat nicht,aber ich hatte zwischendrin bei Stunde 5 kamen mir auch genau solche Überlegungen.So jetzt guckt ihr mal unseren gemeinsamen Code an und nennt mal die 10 fiesestendir bekannten Angriffsvektoren dagegen.Wo könnten hier Security Risks entstehen?Er war dann der Meinung, also okay du hast hier Forms und mit Injections und sowas,da könnten Dinge passieren, er glaubt nicht, dass das über die Art und Weise, wie wir es gebaut haben,irgendwelche üblen Auswirkungen hat, aber wir sollten lieber nochmal ein bisschenFoo über die Forms drüber laufen lassen und das hat er mir dann auch rausgegeben,das heißt also er hat jetzt halt eine entsprechende Ebene, dass er bei den Hashtagsrelativ harsch auf Es dürfen nur Text mit Zahlen sein.
roddi 2:19:38
Hat funktioniert, so.
Ralf Stockmann 2:19:39
Das war die Freak Show.
Tim Pritlove 2:19:41
Der Link war auf der Masse und den muss ich anklicken. Klickt man natürlich drauf.Lässt er sich Rickrollen, ich glaub's ja nicht.
Ralf Stockmann 2:19:56
Nein also Security ist in der Tat ein Punkt.
roddi 2:20:07
Chat GPT, füge noch einen Filter gegen Rick Rowling hinzu.
Tim Pritlove 2:20:09
Hast du deine Konzentration verloren Ralf?Okay ich mach's ja raus. Das ist so ein feuchtbares Lied. Das ist hervorragend.Awesome ist Rick Astley wirklich eine coole Socke, ich kann euch nur empfehleneuch mal Interviews diesem Phänomen mit ihm anzuschauen, also more decent geht gar nicht.
Ralf Stockmann 2:20:33
Also Security, es kann echt sehr gerne mal jemand drauf gucken,der da einfach auch mal Ahnung davon hat, es liegt auf Gitter und ist definitivnicht meine Komfortzone.Und das zweite, wo ich mir natürlich tendenziell Sorgen mache,ist okay, was produziert das denn jetzt für Traffic eigentlich auf Mastodon-Servern?Also alle 10 Sekunden jetzt ein API-Request, würde ich mal sagen,ist im Großen und Ganzen wahrscheinlich zu vertreten, aber wenn das 100 Leuteparallel auf einer Tagung machen, weil es eben nicht auf der einen Wall läuft,sondern jeder bei sich noch im Laptop laufen hat, sieht die Welt vielleichtschon wieder anders aus.Das heißt also wer auch ein bisschen Ahnung hat von Mastodon Server Scalingund was da wie viel irgendwo auf den Maschinen dann auswirkt,wäre ich auch in der Tat dankbar, wenn da jemand auf GitHub sich nochmal...Sich die Sache anschauen könnte.
roddi 2:21:18
Auf gut deutsch jetzt sollen wieder die Programmierer rein.
Ralf Stockmann 2:21:21
Das wäre die Ebene wo dann jetzt glaube ich doch mal echte Menschen doch nochwieder gefragt wären in der Tat.
Oliver Zeigermann 2:21:26
Also ich muss da ja noch ein bisschen mehr Drama reinbringen als Programmiererund zwar weil, hört man mich eigentlich? Ja. Ja okay alles klar entschuldige.
Tim Pritlove 2:21:37
Du kannst doch dein Mikrofon noch ein bisschen näher dran hängen.
Oliver Zeigermann 2:21:44
Also es gibt für uns Entwickler gibt es zumindest bei den klassischen Entwicklungsumgebungengibt es ein GPT 4 basiertes Tool oder es ist demnächst GPT basiert,dass das kann das heißt du gibst dir eine komplette Code Basis und sagst jetzt.Wieso sieht der Code so aus und dann sagt das Ding ja das sieht so aus weiloder ist das guter Code oder kannst du mir den bitte heil machen oder kannstdu den bitte refactoren und was ist das hab ich gemacht an unterschiedlichenStellen dachte so okay das war's jetzt,das ist wirklich gut aber du musst also das was uns Entwicklern immer noch bleibtoder vielleicht auch uns Menschen ist die Intention und die Motivation das heißt,warum baust du das eigentlich was baust du da.Warum hast du den Eindruck, dass es nicht gut ist? Das können wir und da bin ich auch sicher,dass wir das nach wie vor besser können als hier in der Maschine, aber quasi der Bereich,wo ich das Gefühl habe, die Maschine kann das besser als ich,wird immer größer und das ist schon erschreckend und muss man damit umgehenund das, was du jetzt gezeigt hast, hat mich auch beeindruckt,fand ich ziemlich cool, also Hut ab.Eine Sache dazu und zwar zu dem Kontext also du hast ja selbst gesagt das Dinghat irgendwann nur noch so und so viel Zeilen davon im Blick gehabt,gbd4 kann 8000 Token, aber das sind halt Tokens das ist nicht der original Quelltext.Genau das ist sowas wie, das ist aber immer noch doppelt so lang wie das wasdavor da war das heißt ein Token ist ein bisschen weniger als ein Wort und ichglaube eine Buchseite hat 200 Wörter typischerweise und 8000 Token vielleicht,Bisschen weniger als ein Wort, das heißt das sind schon sowas wie 40 Seiten,hab ich mal kurz im Kopf durchgerechnet, stimmt das überhaupt,glaube ich ja und es gibt auch ne Version von GPT 4 die kann 32.000,tucken, also das hier, das was Tim hier versucht hat,dass er das zusammenfassen lässt, war zum scheitern verurteilt,hab ich aber vorhin nicht gesagt, weil das einfach zu lang ist,das heißt, der ist gar nicht in der Lage durch dieses komplette Dokument durchzugehen,weil ich davon ausgehe, dass es wirklich länger ist, also das was hier letztesmal gesprochen wurde oder?4 Stunden gequatsche, das ist doch länger als Buch oder?
Tim Pritlove 2:23:49
Naja, also kommt aufs Buch an.
Oliver Zeigermann 2:23:50
Genau, aber mehr als 40 Seiten. Aber das ist was woran die Leute arbeiten undwie gesagt es gibt eine 32.000,Token Version von GPT-4, leider wird das Modell dann immer größer und immerteurer, aber wie das mit Engineering so ist, die Leute arbeiten weiter daranund dann wird es irgendwann gehen.Mehr Bums. Vielleicht muss ich mir mal so ein T-Shirt drucken lassen,wo einfach nur drauf steht mehr Bums und das ist immer die Antwort auf alles.Wie kriegen wir das hin, mehr Bums?Also das fällt mir jetzt gerade ein, ich hab mich mal mit Flugzeugen beschäftigt,ist ein ganz kurzer Einschub und zwar, so der angeblich sowjetische Ansatz zurLuftfahrt ist gewesen so viele Motoren draufschrauben bis das Ding fliegt undwenn das nicht geflogen ist hat man einfach gesagt mehr Bums.
Tim Pritlove 2:24:36
Ja das ist generell russischer Ansatz, also der Russe macht das halt einfach mit viel.Amerikaner macht das immer mit mehr Detail und mehr Ingeniosität aber Russlandmacht das einfach mit viel.Also dann bin ich bei Russland muss ich sagen.
Ralf Stockmann 2:24:57
Echt?
Tim Pritlove 2:24:57
Aber er ist zwar gescheitert, aber er ist gar nicht so schlecht gescheitert.Also nochmal kurz zu zusammenfassen, das Ergebnis von diesem,liest doch mal das Transkript durch hier.Leider ist das Transkript des Podcasts sehr umfangreich und es war in der gegebenenZeit nicht möglich alle Details zu erfassen und entsprechend mit dem größtenRedeanteil zu bestimmen. Hier ist jedoch eine Zusammenfassung der bisher erfassten Informationen.Der Podcast Freak Show 265 Mansplaining as a Service konzentriert sich auf dieDiskussion rund um künstliche Intelligenz und maschinelles Lernen.Maschinelles Lernen. Insbesondere im Zusammenhang mit Chat-GPT in der Diskussiongeht es unter anderem um die Angst vor künstlicher Intelligenz und die möglichennegativen Auswirkungen von Priming in KI Systemen, die zu unerwünschten Stereotypenund Vorurteilen führen können.Sie sprechen auch über die vielfältigen Einsatzmöglichkeiten von KI Technologienund ihre potenziellen Missbrauchsrisiken.Beispielsweise sprechen sie über die Möglichkeit, dass KI generierte Bilderin Berichten von Amnesty International verwendet werden, um die Privatsphäreder betroffenen Personen zu schützen.Ein weiterer Diskussionspunkt ist die Idee des Auto-GPT, dass ein System beschriebenwird, das Chat-GPT verwendet und automatisch steuert. Es wird diskutiert,wie Auto-GPT Prompts erzeugen kann, um Gedanken zu entwickeln und zu kritisieren.Zuletzt sprechen sie über die Zukunft von Chat-GPT und LLMs als eine Art Betriebssystemund die Entwicklung von Anwendungen, die darauf aufbauen. Sie diskutieren auchüber die Möglichkeiten von Plugins für Chat-GPT, die eine Interaktion mit verschiedenenDiensten ermöglichen könnten.
Ralf Stockmann 2:26:25
So wie heute gesehen.
Tim Pritlove 2:26:26
Da wussten wir noch gar nicht.
Ralf Stockmann 2:26:27
Wir wussten es aber wir konnten es noch nicht sehen.
Tim Pritlove 2:26:31
Ja wir haben versucht, genau wir reden jetzt immer ganz kurz bevor es wirklich da ist darüber.Genau die drei Hauptredner, die in den bisher erfassten Teilen des Transkriptserkennbar waren, sind Ralf Stockmann, Tim Brickler und Björn Reimer.Tja Roddy, als ich mal mehr einbringen soll. Ja einfach mal Fresse halt.So also und dann kam Error in Message Stream. Aber so weit so akkurat.Also ich bin in gewisser Hinsicht beruhigt, dass unsere Formate hier immer nochdie Fähigkeiten der künstlichen Intelligenz sprengen. Krass.Kann nicht so ohne weiteres von einer KI ausgelesen werden.
roddi 2:27:12
So jetzt hast du das vorgelesen, das ist dann wieder im Transkript und in dernächsten Sendung, dann muss das wiederholt werden, dann wieder und wieder,bis das Ding in die Knie geht.
Ralf Stockmann 2:27:23
Es kommt im Chat noch die gute Frage, ob jetzt dieses Beispiel mit der Masterwall,ob das jetzt nur so prompten konnte, weil ich selber programmiere.Das ist ein guter Punkt. Die Antwort ist ein klares Jein, das thematisiere ichda auch in dem kleinen Blogposting, was ich da geschrieben hab,kann man sich noch mal im Detail durchlesen.Ich würde sagen es gab jetzt so wie es gelaufen ist drei oder vier Stellen woman als Nichtprogrammierer aufgehört hätte, weil man da kein Land mehr gesehen hätte.Also dieses Refactoring beispielsweise, hätte ich das nicht gemacht wäre daszu Ende gewesen an der Stelle. So und dafür brauchst du schon ein bisschen Hintergrund,so okay, warum läuft mir das hier gerade aus der Kurve? Und es gab zwei,drei andere Stellen, die ähnlich waren. Aber, Pointe, ich kann kein JavaScript.So das heißt also die Sprache die hier hauptsächlich verwendet wurde,derer bin ich nicht mächtig.Also ich kann das lesen und ich verstehe im wesentlichen was da so passiert,ja aber die ganze Syntax oder jetzt auch.Was da in irgendwie Libraries eingebunden ist und sowas ist ja kein blassen Schimmer.Aber klar, die ganzen Gefahren haben wir gerade eben schon, ja Security undSkalierung und so weiter. So jeder Depp in Anführungszeichen wie ich kann plötzlichjetzt hier irgendein Java-Skriptcode raushauen, stellt den auch noch auf GitHubund promotet ihn, hier nutzt es für eure Konferenz.Ja, ohne dass ich mich halt mal ernsthaft mit Security und Skalierung beschäftigthabe. Ist ja eigentlich auch ein scheiß Move, ne?Und ich reflektiere es zumindest vielleicht noch so ein bisschen.So, was ist mit den tausend anderen Skriptkiddies da draußen?
roddi 2:29:36
Also Aufgabe für die Hörer, Hausaufgabe,die Mastodon Wall muss mit dem richtigen Tooth gehackt werden.
Ralf Stockmann 2:29:45
So also das ist wie bei vielen Technologien, ich sehe da viel Sonne,aber das kann auch tüchtig nach hinten losgehen.
Oliver Zeigermann 2:29:56
Wir hatten noch so eine kleine Privatunterhaltung über darüber,dass wir sicher sind als Entwickler, weil kein Kunde weiß,was sie wollen, was natürlich sehr praktisch ist, aber dann habe ich leider,habe ich nochmal kurz gegoogelt, habe ich gesehen, dass eine Dame,die Product Ownerin ist oder Product Managerin ist,gesagt, ich weiß, was Leute wollen, ich kann nicht programmieren,ich weiß, wie ich das aus den Leuten rauskriege, ich weiß, wie man ein StückSoftware beschreibt, kann ich Software bauen und sie konnte.Das heißt, wer weiß, kurz habe ich mich sicher gefühlt und dann zack einmalgegoogelt und dann war die Soße schon wieder regenerativiert.
roddi 2:30:34
Was Product Owner meiner Erfahrung nach nicht können, ist einschätzen,wie viel Aufwand es ist, eine Idee umzusetzen, die sie da haben.
Oliver Zeigermann 2:30:47
Das hat sie geschafft, sie hat mit relativ wenig Aufwand da ihre Software zusammenbauen können,aber es ist ja einfach gut, wir gönnen es ihr nicht, aber vielleicht,das gebe ich offen zu, ich gönne es ihr nicht und das fuchst mich auch.
Ralf Stockmann 2:31:02
Die hatte jetzt wirklich noch nie selber was programmiert.
Oliver Zeigermann 2:31:04
Doch die hatte was selbst vor mir, sie hat irgendwo zugegeben,dass sie irgendwann mal so einen 30 Tage Kurs Code in 30 Days hat sie wohl gemacht,also sie ist nicht, also sie kann irgendwas, also das ist nicht so,dass sie komplett jetzt keine Ahnung hätte, aber sie ist Product Managerin.
Ralf Stockmann 2:31:19
Was was übrigens war was vorhin auch als als thema hatten so versteht die maschinemich bei diesen ganzen sechs stunden hatte ich keine sekunde das gefühl dasschat gbt 4 mich falsch versteht.Das heißt also egal was ich an fehlermeldungen dann reingegeben habe oder achtungschon noch mal hier folgendes kommt mir komisch vor dieses dieser verständnislevel auf der anderen seite.War immens. Ja wo ich also, wir hatten es letztens mit Siri,brauche ich gar nicht wieder anfangen, wo man keine 5 Sekunden verstanden wird,also dieses so nicht, ich dachte, dass man häufiger aneinander vorbeireden würde,dass ich irgendwas beschreibe und dann was ganz anderes kriege,das ist praktisch nicht passiert.
Tim Pritlove 2:31:56
Also wo wir gerade schon bei maßloser Selbstüberschätzung sind.
roddi 2:32:01
Dann kündige mal an.
Tim Pritlove 2:32:02
Ich stelle ich mal eine ganz steile These auf. Also vielleicht entdecken wir auch gerade,dass das Verständnis von gut programmieren können ein bisschen falsch austariertist in der heutigen Welt,weil das sozusagen primär ein Attribut ist, was auf erfahrene Coder,die schon sehr viel Code geschrieben haben und ihre Programmiersprachen sehrgut kennen, im Wesentlichen angewendet wird.Und das auch nicht zu Unrecht.Ganz klar. Das zeigt die letzte Zeit.Allerdings ist es mir nun auch schon sehr oft passiert, dass ich halt auf solcheLeute treffe, denen versuche irgendwie eine Problemdomäne zu beschreiben unddie checken's halt einfach nicht.Und ihre Ansätze sind so mechanisiert und so sehr von den Werkzeugen,die sie da die ganze Zeit benutzen geprägt,so eine geradezu technokratische Herangehensweise, dass sie auf der einen Seiteentweder die eigentliche Zielsetzung nicht verstehen oder wenn sie das verstehendann bei der Umsetzung einfach immer wieder von den Notwendigkeiten des Programmierensausgehen und nicht so sehr von den Notwendigkeiten der Anwendung.Und wofür das eigentlich gedacht ist und wohin es sich vielleicht auch nochmal entwickeln kann.Wenn halt Programmieren, was ja im Prinzip nichts anderes bedeutet als der Maschinesagen was sie zu tun hat, so entkoppelt es von Code.Und da sind wir noch nicht, jetzt lassen wir Code schreiben,aber das Programmieren selber kann ja dann auch nochmal sehr viel higher levelwerden, also das was wir heute als Hochsprache verstehen ist ja immer noch relativ kompliziert.
Oliver Zeigermann 2:33:48
Kurz dazu, also das haben wir ja vorhin sogar besprochen bei der Programmierungvon Plugins, da gibt's keinen Code, da beschreibst du, wie das Plugin funktioniertund benutzt wird, da sind wir schon da was du gerade beschrieben hast,wir haben es noch nicht gesehen.Wir haben es noch nicht gesehen, ich habe es auch noch nicht gebaut,aber es ist glaubwürdig so, dass es so ist und das rührt unsere Köpfe um, so wie du das sagst.Irgendjemand beschreibt das, aber du musst natürlich gut beschreiben können,du musst ja immer noch, wahrscheinlich wenn du eine Plakette schreibst,ich weiß ja auch nicht so genau, mal gucken.
Tim Pritlove 2:34:14
Und das bringt unter Umständen auf einmal ganz andere Leute ins Feld.Das Beispiel was du gemacht hast.Die einfach sehr viel besser darin sind das Problem zu verstehen auf der einenSeite aber auch vor allem die sehr viel besser darin zu formulieren was eigentlich das Problem ist.Also einfach mal einen ganzen Satz zu produzieren, der einfach mal klar sagtworum es geht und worum es nicht geht.Wir haben alle schon in so Meetings und Vorträgen gesessen und mit den Augengerollt und uns gedacht so, was machen diese Leute eigentlich beruflich.
Ralf Stockmann 2:34:48
Also ich glaube ein echt guter Punkt ist Prototyping.Dass du also plötzlich als jemand der eine gute Idee hast, dich eben wirklichmal ein Wochenende einschließt und mit so einem System anfängst eben beim Prototypen zu basteln.Ja und so würde ich diese must to wall eigentlich auch sehen.Ich finde das ist ein guter proof of concept zum einen darüber wie es entstandenist, sondern darüber wie diese super minimalistische Funktionalität umgesetztist mit Adressierung über URL und so.Und jetzt kann das aber bitte auch mal jemand in Geil kochen.So das muss ich jetzt aber vielleicht nicht mehr machen.So ist es jetzt mal als Idee in der Welt und so könnte man es machen und jetztnimmt sich das doch vielleicht nochmal einer. Also eben Proof of Concepts raushauenin die Welt und dafür nicht unendlich viele Ressourcen,Aber es muss nicht hinterher Produktiv-Code rauskommen.
roddi 2:35:35
Aber du hast keine Erfahrung damit, wie viele Proof-of-Concept-Code-Sachen tatsächlichin Produktion landen, also das ist ein ganz Slippery.
Tim Pritlove 2:35:44
Läuft doch! Läuft doch, ja.
roddi 2:35:52
Also, wenn ich das nur höre, kriege ich schon irgendwie Bauchnärme.
Ralf Stockmann 2:35:56
Die Geister, die ich rief.
Tim Pritlove 2:35:58
Ich denke wir können jetzt den AI Teil langsam mal zum Ende bringen oder istjetzt fast alles schon gesagt.
Oliver Zeigermann 2:36:08
Mindestens ja.
Tim Pritlove 2:36:09
Ja mindestens schon fast alles gesagt.
roddi 2:36:11
Season 3 ist noch nicht vorbei.
Tim Pritlove 2:36:16
Aber wir haben ja noch ein anderes Thema was wir uns heute nochmal aufhalsenwollten und das hat auch so ein bisschen mit der möglichen Zukunft zu tun und da stellen sich,Im Prinzip wieder genau die gleichen Fragen wie bei AI auch so.Braucht das jemand? Wofür wird das zum Einsatz kommen? Ist das den Aufwand überhaupt wert?Was wird dadurch anders? Ändert sich überhaupt irgendetwas?Und jetzt haben wir noch wie viele Tage bis zur WWDC? Zehn Tage?
roddi 2:36:52
Ja ungefähr, nächste Woche Montag.
Tim Pritlove 2:36:55
Genau, so das heißt da ist halt wieder Apples World Wide Developers Konferenzund ich erwähne das natürlich jetzt deshalb,weil die Gerüchtelage sich mittlerweile so dermaßen konkretisiert und verdichtet,dass man jetzt, dass man sich das schon fast nicht mehr wegwünschen kann.Also das ist zumindest so der Eindruck, den ich habe und ja worüber reden wirnatürlich über das Projekt.Was auch immer das sein wird, also was glaube ich derzeit relativ klar ist,es gibt ein neues Betriebssystem, ich zitiere jetzt mal nur die Gerüchtelage,was ich gehört habe, ja, XR-OS oder auch Reality-OS,die sich halt mit, das sich offensichtlich mit XR beschäftigt und XR ist jaso der neue Sammelbegriff für AR, VR und was war das andere A?Naja, halt diese ganzen Realitätsverzerrungen, also Virtual Reality und AugmentedReality zusammengefasst ist halt Extended Reality und das ist so das super Buzzwordmit dem man versucht jetzt diese beiden Technologien unter einen Hut zu stecken,die haben ja auch viel miteinander zu tun, weil sie eben sehr viel mit 3D Visualisierungzu tun haben und eben auch den Betrachten,Dieser 3D Visualisierung entweder eben vermischt mit der Umgebung,also Augmented Reality, oder eben komplett eigene Welten, die dann erstmal entkoppeltsind von der normalen Realität, also die Virtual Reality.So naja und das Ding verfolgt mich ja nun schon seit Jahrzehnten und hast du mal geguckt,wann haben wir darüber gequatsch reift, du warst ja hier mal zu Gast und dahaben wir das Thema ja schon mal aufgegriffen und uns auch drüber trefflichgestritten und du meintest ja das wäre ja jetzt irgendwie überhaupt totallyoverdue und das würde ja jetzt morgen Einzug halten und die Welt revolutionieren und pipapo.Und ich muss sagen, wann auch immer ich auf so VR-Brillen gestoßen bin,bisher habe ich mich immer gefragt, äh, why? Ja, die,Fähren...
roddi 2:39:06
Aber besser, leichter und auch bezahlbarer.
Tim Pritlove 2:39:11
Ja gut, sagen wir mal es gibt jetzt so eine Brille und die ist so super leicht so,ja, den Akku spürst du gar nicht, das Ding liegt wie eine Feder auf deinen Augen,damit hast du dann immer noch so eine Brille off, die dir im VR Modus quasiden Blick in die Welt versperrt.Oder ermöglicht. Oder in einem, ja.
roddi 2:39:35
2017.
Ralf Stockmann 2:39:38
Das ist echt lange her. 2017.
Tim Pritlove 2:39:41
Wann 2017?Freakshow 195.
Ralf Stockmann 2:39:46
23.3. Dein Butler ist ein Zombie. War ich hier und haben über Heimkino und VR geredet.
Tim Pritlove 2:39:53
Sechs Jahre. Vor sechs Jahren hast du gesagt, morgen geht's los.
Ralf Stockmann 2:39:58
Es ging los, aber ich erzähl gleich was.
Tim Pritlove 2:40:04
Naja im Chat wird jetzt auch schon zu Recht darauf hingewiesen,dass ich persönlich ja auch sehr skeptisch war was so die Apple Watch betrifft,aber habe ich die nicht ausgeschlossen, dass sie kommt, ich war nur sehr skeptisch wann sie kommt.
roddi 2:40:16
Jetzt haben alle eine am Arm. Jaja. Die hier sitzen.
Tim Pritlove 2:40:20
Ja hatten wir auch sehr zugesagt das Produkt muss ich zugeben,aber davon mal unabhängig VR ist halt schon nochmal eine andere Sache,weil es halt auf die Augen geht,also über die Augen geht, also im Falle, wenn es so eine Brille,also wenn jetzt Ampeltaste so eine Brille rausbringt, dann geht es halt überdie Augen und da bin ich einfach skeptisch und meine große Frage ist,Was in aller Welt soll da die Anwendung sein, die wo alle sagen,Geil, brauche ich, muss ich haben.
roddi 2:40:58
Du meinst jetzt außerhalb von Entertainment?
Tim Pritlove 2:41:02
Naja, speziell im Kontext von Kunden von Apple, weil Gamer sind das definitiv nicht.
roddi 2:41:09
Naja, ich meine traditionell, so ungefähr die letzten 30 Jahre hat Apple irgendwieimmer geschafft die Gamer zu verkraulen und Maßnahmen zu machen,die dazu führen, dass halt auf dem Mac nicht gespielt wird.
Tim Pritlove 2:41:21
Ja.
roddi 2:41:22
Das kann man, glaub ich, mal so zusammenfassen.Ähm, ansonsten finde ich, dass die Anwendung Gaming ist, glaub ich, noch die am ...Ersten, was ... ist, was funktioniert. Also, wenn du dir Half-Life Alyx anguckstzum Beispiel, das ist ja das Spiel, wo die Leute plötzlich angefangen haben, zu jonglieren.Ja, also die mit Gegenständen, die du in dem Spiel einsammeln kannst,anfangen zu jonglieren und richtige Jonglage-Tricks zu machen,Videos zu zeigen, wie sie die Dinger da rumjonglieren und dann auch auf dieFeinde werfen und so weiter.Also so im Entertainment-Bereich kann ich mir das nach wie vor gut vorstellen,dass sich die Brillen langsam durchsetzen.Ich glaube, das ist noch Liebhaberei, weil da so ein bisschen Hennerei-Problem ist.Die Anzahl der wirklich guten VR-Spiele ist doch sehr begrenzt und die Anzahlder sehr guten VR-Brillen ist,glaube ich, auch noch sehr begrenzt und dann wird die Schnittmenge halt sehrklein, aber ich kann mir vorstellen, dass das noch wird. Langsam, aber es wird.
Ralf Stockmann 2:42:36
Also ich kann vielleicht einfach mal kurz erzählen, wie das bei mir in den letztenJahren funktioniert hat. Ich glaube überhaupt nicht, dass das jetzt für Appleirgendwie ein Betriebsmodell ist, aber ich war während Corona sehr froh meine Quest 2 Brille zu haben.Nicht weil ich damit jetzt irgendwie tolle Spiele gespielt hätte oder sowas,sondern wir erinnern uns vielleicht noch, es gab so im ersten Vierteljahr vonCorona, hat ja nun wirklich keiner eine Ahnung, wie es irgendwie weitergehtund ob diese Welt eigentlich jemals wieder normal wird.Und sich da, wenn man irgendwie die Kinder im Bett hatte, um irgendwie 11 Uhr auf die Couch setzen,diese Quest 2 ohne Kabel und allen Schrott irgendwie aufsetzen und sich VR-Toursvon schönen Orten der Welt angucken.Hatte auf mich einen totalen Balsameffekt.So, ich hab mir dann also so einen 20-Minuten-3D-Film in Dubai angeguckt,wo so die Sehenswürdigkeiten von Dubai präsentiert werden und die schönstenWasserfälle in Kanada und sowas.Das hab ich also sicherlich irgendwie 3-4 Wochen lang jeden Abend gemacht undwar danach ein etwas entspannterer Mensch.So und das wird jetzt Apple glaube ich nicht helfen, aber es ist einfach...
Tim Pritlove 2:43:46
Ich glaube auch nicht, dass sie in ihrem Produktmarketing jetzt drauf setzen,dass demnächst wieder die Welt zum Stillstand kommt.
Ralf Stockmann 2:43:53
Nein, aber das Zweite, was ich finde, eine Qualität hatte, die ich so noch nichtgesehen habe und das wundert mich immer, dass das bei dir so wenig resoniert, ist der ISS-Simulator.Wo die also die ganze ISS Raumstation modelliert haben und man dann in hinreichendgut simulierter Schwerelosigkeit dort drin hängt und wirklich in sämtlichenModulen sich immer dann mit den Händen an,den Griffen festhält und dann richtig in Schwerelosigkeit reinschiebt und dieComputer einschalten kann und Erklärungen bekommt,wofür ist hier eigentlich welches Element, Sondern kannst du halt dann rausgehenin die Schleuse und kannst dann halt deinen Spacewalk um die ISS rum machenund unter dir die gigantische Erde und du bist eins mit dir und dem Universum.Ich weiß nicht, hast du das mal ausprobiert? Die ISS Simulation?Deine Frau hat doch eine.
Tim Pritlove 2:44:42
Nein, weil mich sowas auch überhaupt nicht triggert.
Ralf Stockmann 2:44:45
In der ISS zu schweben, das triggert dich nicht? Das kannst du mir doch jetzt nicht erzählen.
Tim Pritlove 2:44:49
Ich schweb ja nicht, ich sitz ja nach wie vor auf meinem Sofa und ich hab nurso eine komische Brille auf und die Auflösung ist scheiße und ich weiß ja auchwas ich da tue. Klar ist das ganz nett, aber das kann ich mir auch auf meinemgroßen Curve Bildschirm anschauen, das gibt mir genauso viel Information.Also da ist diese Brille einfach nicht erforderlich. Und ich meine,ich hab seit drei Jahren oder so bin ich jetzt mit meinen Augen so weit,dass ich halt so normal lesen ohne Lesebrille ist halt einfach schwierig.Das heißt ich hab jetzt auch immer so ein Teil dabei und es nervt.Es ist halt einfach irgendwie aufsetzen, absetzen, aufsetzen,absetzen. Ich mach das hier schon seit Stunden, sind wir hier am Podcasten,die ganze Zeit muss ich Brille auf, gucke auf den Bildschirm,dann wieder kein Bock, Brille runter und so weiter. Also es nervt einfach.Wenn ich mir jetzt vorstelle, so eine Brille ist jetzt auch noch der Gatewayzu meinem Computer-Content und ich müsste das jetzt auch noch irgendwie mitreinbringen, bitte, was ist denn das für ein Leben?Das will ich einfach nicht. Ich will mir natürlich die ganze Zeit was über mein Gesicht rüberziehen.Und dann bin ich ja auch vollkommen entkoppelt von der Außenwelt.So jetzt ist natürlich die Frage, kann ich diese Brille in irgendeiner Form,wenn es XR ist, dann ist da auch AR drin, AR heißt Augmented Reality,das heißt da ist eine Kamera drin oder was und dann gucke ich,laufe ich so rum wie mit so einem Google Glass Hole irgendwie im Modus.
Ralf Stockmann 2:46:05
Und Tim, was tragen wir denn gerade?
Tim Pritlove 2:46:09
Kopfhörer.
Ralf Stockmann 2:46:10
Wir haben gerade über einem unserer zentralen Sinnesorgane Technik Erweiterungdrüber und sitzen hier fröhlich vier Stunden und finden das so schrecklich danndoch nicht. Warum soll das mit Blumen nicht auch gehen?
Oliver Zeigermann 2:46:20
Also ich finde der Kopfhörer nervt schon, also ohne hätte ich jetzt noch lieber.
Tim Pritlove 2:46:24
Es ist ja auch ein konkreter Zweck und es ist auch eine klare Zeit und ein klarerModus und wäre es jetzt wichtig, dass wir die restlichen Geräusche noch miteinspielen, könnten wir das technisch auch machen.Es wäre möglich noch mehr von dem Hintergrundgeräusch zu haben,aber der Sinn der ganzen Sache ist ja bei diesen Headsets, dass man sich mehraufs Gespräch konzentriert und sich von dem Rest nicht ablenken lässt.Aber das ist halt dann, keine Ahnung, also was mich jetzt, ich kann mir natürlichjetzt, kommen wir auf dem Chat, tausend Beispiele, was man sich jetzt irgendwieeinfallen lassen könnte, was man vielleicht irgendwie macht.Beim Kochen unterstützen und so weiter, beim Reparieren und so weiter.Und das stimmt auch und das wird ja auch heutzutage schon gemacht,aber das ist halt Special Interest.Aber wir reden jetzt davon, dass Apple ein Produkt rausbringt wie eine Uhr oderwie ein iPhone, was quasi so General Purpose for the masses ist.
Ralf Stockmann 2:47:17
Aber so ist doch das, also was wir besser wissen ist, dass es 3.500.
Tim Pritlove 2:47:21
Euro kosten soll, das ist nicht General Purpose. Ja, das macht es ja noch absurder,also ein viel zu teures Produkt, was noch nicht mal jemand braucht,wenn es ein Zehntel davon kosten würde, was soll das?
roddi 2:47:36
Also ich glaube, man muss die Diskussion nochmal insofern einfangen,als ich sehe halt zwei klare Dinge, das eine ist halt Entertainment,also auch dein ISS Beispiel ist für mich Entertainment oder dein,was war das andere Dubai Beispiel, das ist einfach Entertainment,du setzt dir das Teil auf, um in eine andere Welt einzutauchen,ist vielleicht nicht für jeden was, aber ich kann das total gut nachvollziehen, dass man halt,Irgendwie ein in eine andere Welt eintaucht ich meine Videospiele sind sowashalt auch, dass da, was steht dann auf der Webseite, auf der Apple Webseitezu diesem Produkt, tauch in eine andere Welt ein.
Tim Pritlove 2:48:17
Ich bitte dich.
roddi 2:48:18
Also Moment, Moment, Moment.Die zweite Sache, die Frage ist, wird es zu einem Werkzeug im Sinne von AR oder im Sinne von,keine Ahnung, also mein größeres Problem ist mit so einem Produkt und Appleist, dass Apple nach wie vor sehr hohe Mauern in seinen Walled Gardens hat.Und wenn sie das Ding tatsächlich für 3.500,Euro anbieten, dann kaufen das da irgendwie 10.000 Leute da draußen und ärgernsich ein halbes Jahr später, dass sie so viel Geld ausgegeben haben,weil es keine Software dafür geben wird.Also, ich meine, du siehst ja Apple TV allein schon.Das Ding ist doch im Prinzip auch krepiert, weil niemand eine Set-top-Box für 200 Euro haben will.Die im prinzip nichts anderes tut als fernsehsendungen abzuspielen also es daist nie ein markt für applikationen entstanden weil das ding einfach zu teuerist und und und das ist das problem wenn apple das nicht gelöst kriegt.Dann ist es dead in the water.
Tim Pritlove 2:49:34
Also bei Apple TV sehe ich durchaus noch Pfad, den man gehen kann und wo esauch einen sinnvollen Mehrwert gibt und dann ist natürlich immer noch die Frage, ist es billig genug?
roddi 2:49:44
Aber ich sehe ein Pfad und es ist ein Massenmarkt, sind halt zwei unterschiedlicheDinge und das ist glaube ich bei dieser Brille,wenn die da nicht wirklich aufpassen, dass sie da sehr sehr viel Content aufdas Teil holen, dann krepiert ihnen das sofort wieder weg.
Tim Pritlove 2:50:01
Aber was für ein Content, was für ein Content, also was, wofür,wofür soll das, was sind die drei Sachen, die sie aufzählen mit das ist das,was jetzt möglich ist, was gestern nicht möglich war.Was sind diese drei Sachen? Mir fällt nicht eins ein.
roddi 2:50:18
Also wenn sie kein Apple Cut oder so launchen und sagen du kannst jetzt deine3D Modelle mit diesem Programm oder aber da haben sie ja auch nicht die Firmafür gekauft in den letzten drei Jahren.
Tim Pritlove 2:50:32
Das ist super Nische.
roddi 2:50:34
Ja natürlich ist es super Nische.
Tim Pritlove 2:50:35
Aber das Produkt ist doch nicht, sie räumen doch, sie machen doch nicht eineneue Plattform auf einer, auf ihrer...Die anderen Plattformen sind Fernsehen, Uhr, Telefon, Tablet, Computer.Und wenn sie dem jetzt noch eine sechste Plattform hinzufügen,dann ist das doch nicht die Supernische der Supernische für irgendwie fünf Leute,sondern dann muss das ja irgendwas sein, was Appeal for the masses hat.Vielleicht nicht alle erst mal sondern schon natürlich eine Auswahl aber potenzielletwas was jeder vielleicht irgendwann mal haben will weil sich alle denken wie geil ist das denn.So aber da fällt mir halt nicht ein was es ist weil es ist nicht Gaming.Gaming mag populär sein in seiner Nische aber es ist schon gar nicht in derApple Welt aber auch ansonsten ist es eher eine Ausnahme und auch die meistenLeute spielen ja auch ihre Spiele dicht damit.Die haben einen großen Bildschirm und fertig so.
roddi 2:51:35
Du, keine Ahnung, vielleicht ist Heimtraining aller Art.Wenn du auf deinem Heimtrainer-Fahrrad sitzt, da gibt's auch dieses Strava,wo du dann gegen andere Leute fahren kannst.
Tim Pritlove 2:51:46
Da hast du einen Bildschirm vor der Nase, fertig, du willst da nicht noch soein dusseliges Teil auf dem Kopf haben, wo du reinspitzt.
roddi 2:51:52
Ich bin ja auch nicht jemand, der sagt, das wird auf jeden Fall ein Kassenschlager.Also ich glaube, dass Apple auch mal einen dicken Dämpfer ganz gut brauchen kann.
Tim Pritlove 2:52:01
Aber die werden doch darüber nachgedacht haben.
Ralf Stockmann 2:52:05
Also eigentlich bin ich total bei dir. Die müssen irgendwie eine sehr sehr gute Geschichte erzählen,warum sie jetzt im Jahr 2023, wo man jetzt sogar die Quest 2 irgendwie trotzehemals ja realisierenden Importquerelen hier bei jedem Mediamarkt um die Eckekaufen kann, was sie da drüber setzen können.Ja und das kann nicht Auflösung sein, das kann nicht irgendwie Tragekomfort sein,sie fangen ja sogar schon an mit ihren Scheinbaren mit irgendwie Battery Packsoder sowas irgendwie zu hantieren, also sie müssen schon irgendeine Story erzählenund für diese Story hab ich persönlich keine Idee.Ich vermute aber wie du gerade sagst, die sind eigentlich clever genug,dass sie eine Idee haben müssen, ansonsten würden sie das glaube ich nicht tunund ich bin gespannt, was diese Idee sein wird.
Tim Pritlove 2:52:48
Was meinst du Oli?
Oliver Zeigermann 2:52:49
Habt ihr eine Idee was es ist? Also ich hab davon überhaupt keine Ahnung,aber was soll das denn sein?
Tim Pritlove 2:52:57
Das ist ja die Frage, also Porn geht immer.
Oliver Zeigermann 2:53:01
Ich wollte das nicht sagen, wie machen die denn Porno, weil Porno geht tatsächlich immer.
Tim Pritlove 2:53:06
Apple macht kein Porno, Apple macht keine Games und wenn man sich anschaut,okay wir können ja mal gucken was haben sie denn bisher gemacht.Ja sie haben jetzt über mehrere Jahre haben sie dieses AR Kit in ihr Betriebssystem integriert,das heißt sie haben im Prinzip die ganzen Voraussetzungen geschaffen für Kamera,Einblendung, 3D Modelle, das sozusagen alles zu kombinieren und es wäre sehrwohl vorstellbar, dass sie die Software dafür haben. Sag mal mal, ich hab jetzt...So was wie diese Google Glasses. Die alte Idee von Google, die ja nicht besonders erfolgreich war.So ist ne Kamera da drin und du hast irgendwie nur so ein Einblendungsteil,was das dann irgendwie auf deine Retina projiziert. Wird's nicht sein,das geben die Gerüchte nicht her.Aber dann wäre das sozusagen so ein Produkt, wo man sagen könnte,ah ok, ich laufe durch die Welt und es zeigt mir mehr an.Das ist genau dieselbe Idee, die Google auch schon hatte und die total gescheitertist, weil die Leute halt einfach nicht gefilmt werden wollen und du auch affigaussiehst mit so einem Teil.
roddi 2:54:13
Naja gut, die Google Glass war aber auch so das Nokia Tastentelefon unter denVR Brillen oder AR Brillen.
Tim Pritlove 2:54:20
Die ist vor allem gestorben, weil die Leute einfach als Glassholes bezeichnetwurden, weil sie halt mit einer Kamera rumlaufen so und.
roddi 2:54:26
Ja die Welt war nicht bereit, das stimmt.
Tim Pritlove 2:54:28
Ne die Welt, und ich glaube auch nicht, dass die jetzt bereit ist.Die ist jetzt nicht bereiter geworden. Genau, also das ist eher noch schlimmer als vorher.
Ralf Stockmann 2:54:36
Also ich finde Roddy hat einen Punkt was also quasi jetzt so Apple Themen angeht,das ist Sport, Fitness, aber ich gebe dir völlig recht ich will nur alles machenmit so einem Teil aber nicht Sport und Fitness.
roddi 2:54:48
Wenn man Sport richtig macht schwitzt man auch.
Tim Pritlove 2:54:50
Ja, was soll das denn besser machen also was wird besser?
Ralf Stockmann 2:54:54
Also es gibt beispielsweise für die Quest 2 eben dieses ziemlichcoole Spiel wo man halt klettert ja durch Yosemite und so weiter das macht schonrichtig derbe Spaß auch wenn man selber mal ein bisschen geklettert ist so inmeiner Jugend war ich mal irgendwann sportlicher das ist schon ganz cool jadieses Climb 2 heißt das glaube ich aber ich.
roddi 2:55:16
Es gibt doch jetzt auch von Horizon Zero Dawn beziehungsweise deren Nachfolger eine VR Variante.
Ralf Stockmann 2:55:24
Aber das machst du halt nicht für 3500 Euro. Also ich vermute,dass sie halt wirklich, vorhin wurde gesagt, Thema Medizin, also da sind dieTeile ja, sagst du ja auch schon, verbreitet, also Ingenieursbereiche,Medizinbereiche, guck dir an, welche zumindest in den USA Rolle iPads in der Medizin spielen.Dass sie versuchen da eben irgendwie den nächsten Level drauf zu setzen,ja Tricorder mäßig, Arzt setzt sich die Brille auf und guckt in den Körper reinund sieht da anhand der Dinge, was auch immer.
Tim Pritlove 2:55:53
Ja aber du gehst ja nicht in so einen Apple Store und das erste was sie fragenist sind sie Chirurgen oder arbeiten sie auf der Ölbohrinsel,also das ist doch irgendwie, es muss ein Maß Appeal geben so und,Versuchen wir das vielleicht mal andersrum, technisch.Was ist derzeit das Problem mit diesen Brillen?Welche Probleme müsste Apple auf jeden Fall lösen, vorausgesetzt,dass sie in dieselbe Produktkategorie reinsteigen wie das was derzeit da ist.So da haben wir auf jeden Fall erstmal, Auflösung muss so hoch sein,dass du so einen Retina Effekt hast, das heißt du musst keine Pixel mehr unterscheiden können.
roddi 2:56:39
Ja die Pixel gucken sich weg nach einer Weile aber das muss schon gut sein, das ist das erste.
Tim Pritlove 2:56:44
Also das können sie aber vergessen, also ich würde sagen entweder Retina undkeine Pixel mehr zu sehen oder das Produkt ist gestorben, das ist das erstewas sie auf jeden Fall machen müssen.Und das zweite ist, Framerate und Motion Sickness, das muss einfach eine Responsivenessund eine Ordnung im Raum haben, wie sie noch nie da gewesen ist.
Ralf Stockmann 2:57:04
Es gibt von Facebook Meta, gibt's genau diese Liste runter dekliniert,wo Zuckerberg glaube ich sogar selber das runter definiert, das sind die fünfSachen, genau die Punkte die du jetzt aufzählst, plus noch irgendwie drei vier andere.
Tim Pritlove 2:57:16
Aber das ist ja noch keiner hinbekommen.
Ralf Stockmann 2:57:17
Ich find's gerade nicht.
roddi 2:57:19
Das würde ich jetzt so nicht sagen also kommt natürlich darauf an wie du hinbekommen definierst aber.
Tim Pritlove 2:57:26
Jetzt kommt hier so der Kommentar Pixel siehst du bei der Quest kaum noch.Kaum noch und nicht das ist was ganz anderes.
Ralf Stockmann 2:57:36
Ja die Texturen sind bei der Quest 2 nicht toll und so.
roddi 2:57:39
Gekauft. Das ist was, wo eine gewisse Grundauflösung muss da sein, das ist klar.Und wenn du irgendwas mit 3D machen willst, dann musst du halt auch die entsprechendeGrafikpower haben. Das ist irgendwie auch klar.
Tim Pritlove 2:57:57
Jaja, logisch.
roddi 2:57:58
Und zwar ohne, dass es dir irgendwie hinten, wo die Elektronik ist,irgendwie am Hinterkopf warm wird.Das halte ich für schwierig.
Tim Pritlove 2:58:08
Fehlt uns irgendwas? Also was können wir denn derzeit nicht machen?
Ralf Stockmann 2:58:13
Also ich glaube sie werden nicht mit technischen super Specs,sie wird wahrscheinlich eine höhere Auflösung haben, wahrscheinlich werden siedas alles adressieren aber sie müssen noch irgendeine Idee dahinter haben.
Tim Pritlove 2:58:23
Nehmen wir mal an, sie hätten das alles geschafft,sie hätten irgendwie das Tracking auf einen neuen Level gebracht,sie schaffen irgendwie eine Framerate,wo du einfach bei der schnellsten Kopfbewegung nicht mehr merkst,dass da noch irgendwie versucht was hinterher zu kommen, was ich alles schonfür extrem schwierig zu erreichen halte, aber vielleicht gelingt es ihnen undmit ihrer Micro-LED-Technologie kommen sie vielleicht eben auch auf diesen Retina-Bereich.
roddi 2:58:50
Ja, aber da würde ich mich nicht dran festbeißen. Die Frage ist,was machen sie besser als andere?Also zum Beispiel hast du ja in den neueren iPhones, hast du ja dieses,diese 3D-Infrarot-Kamera, macht dir Pixelwolke, erkennt irgendwie,Räume und so, also kannst ja dann so einen Raum scannen und der macht dir Geometrievon dem Raum und so weiter.Wenn sie diese ganze Technologie noch weiter ausbauen,dann kannst du mit so einer Brille tatsächlich, du setzt sie auf,hast dann im Raum Gegenstände, die dir über das, was du im eigentlichen Raumsiehst, drüber projiziert werden.
Tim Pritlove 2:59:33
Das ist ja EA.
roddi 2:59:34
Das ist dann EA, ja, aber wenn sie diese Technologie gut im Griff haben,dann ist es nochmal was anderes, als halt einfach nur VR zu machen und keineAhnung, vielleicht haben sie ja auch eine Technologie, dass du gar keine Kamerabrauchst, sondern du guckst tatsächlich durch das Glas durch,wenn nichts angezeigt wird.
Tim Pritlove 2:59:56
Durchsichtige Micro-LEDs, habe ich noch nichts von gehört. Wovon ich allerdings was gehört habe ist,dass sie dieses Grafik Problem, also dieses, du brauchst eine extrem hohe Auflösung,aber du brauchst diese extrem hohe Auflösung nur da wo du hinschaust.Wenn du das mit einem Eye-Tracker kombinierst, der schnell genug ist und dersozusagen die Brille dein Eye-Movement verfolgt und dann die Grafik hat,der sich nur darum kümmern muss, da scharf zu machen, wo du gerade hin fokussierst,Weil wir das imlateralen Bereich also sozusagen da wo wir nicht hinschauen dasehen wir eh sehr unscharf wir können zwar Bewegung da ganz gut detektierenaber wir sehen nur gut da wo wir wirklich hinschauen wir glauben zwar dass wirauch drumherum alles sehr scharf sehen aber dem ist halt nicht so und das wäreetwas was man mit so einem Eye-Tracker System schon mal ganz gut optimieren kann.Aber trotzdem, die Frage bleibt immer, egal wie gut das Teil technisch ist,wozu? Warum? Weswegen? Wieso? Weshalb?Ich verstehe nicht, was das Problem ist, was man hier lösen will außer so Nischenprobleme,was halt nicht Apples Bereich ist.Da geht Apple rein, wenn der sich etabliert hat und sogar der hat sich ja nicht wirklich etabliert.
Oliver Zeigermann 3:01:24
Also ich hab hier im Chat zwei Sachen gesehen die ich überzeugender fand alsohier hat jemand geschrieben man kann Bildschirm ersetzen.
Tim Pritlove 3:01:33
Kann man das?
Oliver Zeigermann 3:01:34
Ja wenn also hier hat er auch geschrieben wenn das echt Retina wäre hohe Auflösungich gucke relativ schlecht ich brauche meine Brille ich mag eigentlich gar keine Brille.Und ich habe auch so eine Gleitsichtbrille ich bin ein älterer Mensch wenn irgendeinSystem mir das schafft alles in derselben Entfernung zum Arbeiten zu geben findeich gut ich fahre total viel durch die Gegend.Ich hab immer, ihr seht ja hier, mit welchem Apparatismus ich hier arbeitenmuss, mit Windows und klein.Und wenn ich in der Lage wäre, irgendwie ich sitze am Bahnhof,ich sitze im Flugzeug, ich hab den größten Monitor aller Zeiten vor Augen, dann kauf ich das Ding.Ich kauf das und dann steig ich auf Apple um. Also das würde mich überzeugen.Ihr glaubt mir nicht, dass ich es mache, morgen weiß ich ja auch noch nicht,ob ich dazu stehen will. Das andere ist, ich bin ja heute ja,ich bin ja heute ja irgendwie, LGBT hat das jetzt im Protokoll gewählt.Und nein, da können wir das später rausschneiden, sonst muss ich es durchziehen.Ich bin ja vorhin mit dem Fahrrad hier durch Berlin gefahren,ich bin nicht besonders ortskundig, mit dem Fahrrad quer durch Berlin ist sowiesoeine Herausforderung und dann guckst du ständig auf das Handy,hab ich eine Brille auf, da steht drauf hier vorne und pass auf und so, ich kauf das Ding.Also allein sowas wie, das ist eine gefährliche Ecke, damit ich nicht sterbe.
Tim Pritlove 3:02:39
Also mit Berliner Verkehr, mir als erstes erstmal so eine Brille,die mich von der Realität ausbietet.
roddi 3:02:44
Das kommt mir egal. Bist du mal ein Auto gefahren, was ein Navigationssystemmit Head-Up-Display hat?
Oliver Zeigermann 3:02:50
Das ist gut, ne? Das ist doch toll, oder?
roddi 3:02:53
Also jetzt wo du es sagst, würde ich sagen so, yo, das ist mal eine geile Idee eigentlich.Weil so ein Head-Up-Display ist eigentlich sehr, sehr cool. Mhm.Ob das jetzt in Form dieser Brille sein muss?
Tim Pritlove 3:03:06
Aber wie sieht denn das auch aus? Die Leute sind ja so sensitiv,was sie sich ins Gesicht halten.Geh mal zum Optiker, also allein diese ganze Wall of Design,was nimmst du jetzt dafür? Oh Gott, nehm ich das in grün oder blau?
Oliver Zeigermann 3:03:23
Wir haben alle genau die gleiche Brille auf. Wir Nerds, uns ist das doch egal,oder? Wir haben alle ungefähr das selbe Design hier.
roddi 3:03:29
Ich war jetzt beim Augenarzt und hab jetzt ne Optiker-Tour vor mir und Bilder,dann vielleicht mal was anderes machen.
Tim Pritlove 3:03:37
Was wir Nerds, also unsere Pain-Points sind an der Stelle vollkommen irrelevant.Ich rede jetzt einfach von den Leuten, die normalerweise im Apple-Store einkaufenund denen ist Optik auf jeden Fall wichtig.
Oliver Zeigermann 3:03:47
Das stimmt.
Tim Pritlove 3:03:48
Vor allem ihre eigene.
roddi 3:03:49
Aber auch da vermischst du wieder zwei Dinge. Trage ich das Ding im Alltag,draußen, in Anführungszeichen, oder trage ich das zu Hause am Schreibtisch oderzu Hause in meinem Job am, weiß ich nicht.
Tim Pritlove 3:04:02
Wenn du es nicht im Alltag trägst, dann schämst du dich dafür.Also das muss etwas abgucken, wenn man sich nicht schämt.
roddi 3:04:09
Ob die Anwendung was ist dafür, dass ich damit rausgehe oder ob ich das mehrstationär am Arbeitsplatz oder zu Hause mache, also das ist so.
Oliver Zeigermann 3:04:20
Und jemand anders sagt ja auch völlig richtig, wenn es mehr Bums hat, wird's gekauft.Ne, wenn die Brille genug Bums hat, wird sie gekauft. Und ich glaube, das stimmt auch.Man muss einfach nur, man muss einfach mehr Bums. Macht es dir ein bisscheneinfach, finde ich. Ich würde sagen, das stimmt.
Tim Pritlove 3:04:36
Ich seh schon, ich seh schon.
Oliver Zeigermann 3:04:37
Weil das einfach nur ein bisschen besser ist als das, was es gibt,aber in den entscheidenden Punkten...
Tim Pritlove 3:04:41
Äppelglas mit noch mehr Bums.
Oliver Zeigermann 3:04:44
Also ich würde kaufen, also jetzt würde ich schon in drei Fällen kaufen,wenn der Slogan stimmt, die jetzt mit richtig Bombs, dann kaufe ich,wenn das Maps kann, kaufe ich und wenn es mir, hier acht Virtuelle der Monitor in der Besen kauft.
Tim Pritlove 3:04:58
Wer will denn komplett in seinem Bildschirm versinken, gerade im Flugzeug,da willst du doch auch noch mal nach links und rechts gucken.
Oliver Zeigermann 3:05:04
Im Flugzeug, was willst du da links und rechts sehen, da siehst du gar nix, da ist voll öde da.
Ralf Stockmann 3:05:09
Jetzt stell dir vor du hast die Brille auf im Flugzeug und dein ganzes Flugzeug ist weg.
Tim Pritlove 3:05:13
Ich sitz im Café, ich will da noch Leuten hinterher gucken können.
Oliver Zeigermann 3:05:18
Im Flugzeug ist nichts zu gucken?
Tim Pritlove 3:05:20
Nein, im Flugzeug nicht, aber im Café.
Oliver Zeigermann 3:05:22
Achso, ja dann kannst du doch gehen.
Tim Pritlove 3:05:25
Mann, ehrlich, du setzt dich doch nicht im Sommer auf so einen Café auf derTerrasse mit so einer beklopften Brille rum.
Oliver Zeigermann 3:05:32
Ich hab schon so schlimme Sachen gemacht.
Tim Pritlove 3:05:35
Und um dich herum tanzen schon die Kinder aus Zeiten. Nein, da natürlich nicht.
Oliver Zeigermann 3:05:40
Mit einem Finger auf dich.
roddi 3:05:42
Aber ich glaube, du hast ja ein Macbook Air,du bist ja vielleicht auch nicht die Zielgruppe für viel Screenspace,insofern… Ich löste jetzt von 38 Zoll demnächst auf 40 Zoll auf,weil mir das zu klein geworden ist. Und das nimmst du mit ins Café?
Tim Pritlove 3:06:00
Nein, das nehme ich nicht mit ins Café, aber wenn sie ein 15 Zoll Air rausbringen,denke ich da auf jeden Fall auch drüber nach.
roddi 3:06:05
Das 15 Zoll mitzunehmen.
Tim Pritlove 3:06:08
Eines zu haben erstmal vielleicht. Also ich kann mit Screenspace schon was anfangen.
roddi 3:06:16
Die Frage ist halt, was ist die Story, die sie verkaufen?Ich kann mir nicht vorstellen, dass sie verkaufen, das ist das coolste Teil,das hippste Teil, was du unbedingt im Café tragen musst.Nicht zu dem Preis, sondern eher, dasssie verkaufen, das ist der größte Screenspace, den du je gesehen hast.
Ralf Stockmann 3:06:35
Das hat irgendwas mit Sirius Work zu tun haben, das gehört deinem Job.
Tim Pritlove 3:06:39
Und wenn es halt auch noch was mit Siri zu tun hat, dann ist es sowieso komplett vorbei.
Ralf Stockmann 3:06:43
Ja, das stimmt.
Oliver Zeigermann 3:06:45
Was ist denn so eigentlich mit tippen? Brauche ich denn überhaupt noch das hier?Reicht mir denn nicht mein Telefon?Ich hab ein iPhone, dann setze ich die Brille auf, sehe … Ihr habt gelogen. Nein, hab ich nicht.
Tim Pritlove 3:06:56
Wenn du deine Programme nur noch mit Chalchipiti schreibst, dann auch.
Oliver Zeigermann 3:06:59
Nein, nein, du tippst irgendwie in der Luft, das Ding sieht,was du da machst, fummelst da rum.
Ralf Stockmann 3:07:02
Das wird gut funktionieren.
Tim Pritlove 3:07:04
Das klappt nicht.
Oliver Zeigermann 3:07:05
Viele Close-Up-Konzepte. Ihr seid doch die Fanboys.
roddi 3:07:08
Dann kannst du eher so mit Zeichensprache da vor der Brille hin und her.
Ralf Stockmann 3:07:12
Also da gab es schon wirklich vor vielen Jahren immer ganz brauchbare Demos.
Tim Pritlove 3:07:15
Vollidiot. Aber es ist halt auch nie mal eine Demo rausgekommen.Ich kann mir das einfach nicht vorstellen, dass sie so ein Produkt rausbringen,wo man dann wirklich wie so ein zappelnder Vollidiot mit so einem Brett auf dem Kopf und Körper ist.
Oliver Zeigermann 3:07:30
Das haben wir aber auch gesagt, als die Leute angefangen haben irgendwie normalin die Headset zu sprechen oder einfach nur mit ihren Apple Pods, wie heißt das?
Tim Pritlove 3:07:39
Nee, das haben immer nur die anderen gesagt, wir haben das nicht gesagt,wir finden das immer geil.
roddi 3:07:43
Haben wir das?
Tim Pritlove 3:07:45
Ja ich meine es war ja lange Zeit verpönt,wenn du am Anfang dieser ganzen Mobilfunk-Generation so 90er Jahre,wenn du ein Mobilfunk-Telefon hattest und du standest irgendwo rum und hastdich quasi mit irgendeiner Person unterhalten, die andere nicht gesehen haben, dann war das weird.
roddi 3:08:03
Das stimmt.
Tim Pritlove 3:08:04
Das war total weird und heutzutage reden die Leute überall mit sich selbst unddu weißt nicht sind die jetzt irgendwie völlig durchgeknallte oder telefonieren die nur.So und das ist alles so eine Gewöhnungssache, aber mir war halt schon klar,dass das irgendwie der Trend ist. Aber ich glaub nicht, dass der Trend ist,dass alle mit einem Brett vorm Kopf durch die Gegend laufen.
Ralf Stockmann 3:08:21
Also was halt so unseren breiten Appeal hat und was wenn du es technisch sehrgeil machst funktionieren könnte ist halt Heimkino.Das heißt also da gibt es auch für die Quest 2 halt Apps wo du dann Film streamenvon YouTube in Full HD machen kannst und du sitzt aber in einem echten Kinound Vorhang geht auf und dein YouTube Clip wird abgefahren.Das das ganze hängt daran dass die Auflösung nicht hoch genug ist und Trackingund so weiter und so fort.
Tim Pritlove 3:08:48
Heimkino ich bin so ne Brille.
Ralf Stockmann 3:08:49
Ja schon. Wenn du ein IMAX Screen in IMAX Qualität hast und musst dafür abernicht ins doofe Sony Center.
Tim Pritlove 3:08:57
Und wie greifst du dann in deine Chips Tüte?
Ralf Stockmann 3:09:00
Die hast du einfach neben dir, lösest schrial deine Chips Tüte,die kostet auch nur ein Fünftel von dem was sie im IMAX kostet.
Tim Pritlove 3:09:08
Und kuscheln und küssen und so weiter, alle nur noch allein zuhause oder was?
Ralf Stockmann 3:09:14
Es gibt genug Leute die alleine sich gerne ins Kino setzen.
roddi 3:09:17
Kleiner Hinweis, auch im Kino musst du dir die Person mitnehmen,mit der du das machen sollst.
Oliver Zeigermann 3:09:22
Ja, aber was machen da andere?
Ralf Stockmann 3:09:24
Kriegst du mit der Eintrittskarte nicht dazu.
Tim Pritlove 3:09:26
Ja, aber ich meine, wenn du deine intimistische Themen austauschen willst,dann musst du nicht erst so eine blöde Brille abnehmen.
roddi 3:09:33
Ja, also das seh ich jetzt auch nicht, dass ich einen IMAX Leinwand als virtuellesAnwendung für so eine Brille haben muss.
Tim Pritlove 3:09:41
Vor allem, das ist mir alles von der falschen Seite her gedacht.Das ist so dieses, oh mein Gott, wir müssen jetzt dieses Produkt bauen.Jetzt müssen wir tierisch drüber nachdenken, wofür könnten wir das vielleicht gebrauchen?So funktioniert das nicht. Man muss es von der anderen Seite aufziehen.Was ist eigentlich das Problem?Und welches Gerät könnte hier Abhilfe schaffen? Telefon war so klar.Mehr Bums ist definitiv ein Punkt, aber lässt sich jetzt auch nicht so,also kannst ja mal chatty bitty fragen, wie sich mehr Bums so konzeptionellin Hardware manifestiert.Ich sag den Abscheid. Genau. Und das, alle anderen Produkte von Apple,also Laptops sowieso klar.So, ne. Dann iPhone war halt klar, Telefon ist sowieso da, will man immer dabeihaben, man will immer kommunizieren.Das war zum Zeitpunkt, als das iPhone geboren wurde, waren Mobilfunktelefone durch.So, das wollte jeder haben, jeder wird immer eins dabei haben, das war klar.Und natürlich will man aber auch irgendwie Information at your fingertips haben,das war einfach eine ganz klare Geschichte und wir sehen ja,was alles in diesem Telefon sich abspielt.Die Uhr als Satellit des Telefons und als Erleichterung des Handlings des Telefonsdurch Notifications und soweiter hat sich auch wunderbar etabliert plus diese ganze Fitness-Story,ich meine das wusste Apple vielleicht am Anfang auch nicht so ganz klar,Welche dieser Achsen am Ende greifen werden, aber zumindest hatten sie mehrereund zwei davon haben irgendwie verfangen, so.Und welches Produkt habe ich noch vergessen? Apple TV, darüber kann man jetztdiskutieren, aber generell sind natürlich solche Transitionen zu Internet fürFernsehgucken durchaus auch erfolgreich und ich würde sogar sagen da ist auchnoch eine Story zu erzählen.Was haben sie jetzt gerade gekauft? Welche Sports League? Apple hat doch jetzt irgendeine große...Oder Spaceball oder was war das? Ich glaube es war Baseball.Spaceball, ne die haben jetzt...Vielleicht bönigst du dich, vielleicht weißt du es der Chat,ich glaube es war Baseball und Sportübertragungen sind halt sehr data rich so,das heißt du schaust dir das an und du hast Scoreboards und pipapo und das heißtdu hast nicht nur den Videostream sondern du hast halt so eine kombinierte Geschichteund ähnlich entwickelt es sich auch bei Fußball mit mehreren Screens und pipapo und Statistiken.
Ralf Stockmann 3:12:09
Da bin ich aber gerade auch. Live Events. So,was wäre, wenn Sie eine Technik haben,wo Sie sich in der NFL, wo auch immer, mit einem Stereokamera in UUHD,8K, aufbauen, Union, ja, bester Platz, den Du im Stadion hast,hast aber keine Karte gekriegt, weil es gibt nun mal nicht so rasend viele.So du setzt dich dahin, hast das komplette Stadion in Ultra HD,siehst keine Pixel, es ist richtig sauber, du hast ein bisschen simuliertes 3D Head Tracking,das heißt wenn du dich ein bisschen nach links und nach rechts drehst,verschiebt sich die Perspektive annähernd vernünftig mit und dann kannst duLive Union gucken ohne dass du dich grämen musst und das ganze irgendwo am Radio verfolgen.
roddi 3:12:54
Aber jetzt sind wir...
Ralf Stockmann 3:12:55
Das wär Maß Appeal.
roddi 3:12:56
Jetzt sind wir wieder bei...
Ralf Stockmann 3:12:58
Das kannst du machen für Sport, das kannst du machen für Musik.Rolling Stones Abschiedstournee, du sitzt auf der Bühne.So, bester VIP Platz ever.Aber für eine 1000 Euro Brille vielleicht schon, weil das Geld hast du.Ja, Berliner Philharmoniker.Ich bin jetzt seit 10 Jahren in Berlin, ich schaffs da nicht hin,weil irgendwie Kinder, was auch immer.Aber die live sehen zu können, dafür würde ich natürlich was,was ich 200 Euro im Jahr zahlen. Wenn ich das in vernünftiger Qualität 3D simuliert,ja, da ist ein Markt. Theater.
roddi 3:13:29
Jetzt sind wir wieder bei Entertainment und für mich ist Entertainment keine Frage.Für mich funktioniert Entertainment in VR, wenn VR besser wird.Das ist, glaube ich, das ist ein gemachtes, das ist ein gelöstes Problem.Die Frage ist, wenn das Ding tatsächlich drei, fünf kosten soll,dann sicherlich nicht für Entertainment, sondern für Serious Business,das waren jetzt mit R-Quotes.Und dann ist die Frage, was muss ich denn da,was für Software, was für Anwendungen habe ich denn dann, für die sich eineAusgabe von 3.5 tatsächlich für mich rechnet?Nur ein großer Monitor? Ja, okay, wir wissen, was Apple Monitor kostet,die VR-Brille, wahrscheinlich kostet dann auch der Ständer, nur um sie aufzuladen,auch ein Tausender wieder, kennen wir ja auch von Apple.Aber aber nur für einen großen Monitorist das das ein bisschen eine dünne Geschichte würde ich sagen dann,also da muss dann schon mehr kommen, vielleicht ist die die Zahl die gehandeltwird mit 3,5 auch irgendwo lanciert aber komplett.Komplett einfach nicht das, was es dann kosten wird. Also 350 fände ich haltrealistisch, aber 3,5 halt nicht.
Tim Pritlove 3:14:55
Ja, im Chat kommt nochmal so ein Kommentar, ich verstehe das problemlich,das sei der erste Schritt hin zu einer Brille, bei dem man direkt die wichtigsteSchnittstelle bedienen kann. Augen, Infos, Verkehrsupdate, heranrasende Autoswerden rot eingefärbt, was weiß ich.Setzt natürlich voraus, dass man so eine Brille tragen will und man will eigentlichkeine Brille tragen oder man trägt schon eine und dann müsste man zwei tragen,wie verheiratet sich das mit einer zweiten Brille und eine Brille ist schon der totale Hässel.Akkustand von dem Ding, das musst du dabei haben, wo transportierst du es,wenn du es irgendwie gerade nicht brauchst, Ich kann mir das einfach nicht vorstellen,dass man das irgendwie ordentlich integriert bekommt.Es ist so klein und verschwindend gering und unauffällig, dass es eine Technologieist, die wir noch lange nicht sehen werden.
roddi 3:15:46
Noch wissen wir nicht, was sie da vorstellen wollen.Ist es eher Richtung Google Glass, sprich du hast da irgendwie ein Display irgendwoin der peripheren Sicht,die dir zusätzliche Infos anzeigt oder ist es eine volle VR Experience mit allem,was dazugehört, sprich du hast da so eine Taucherbrille auf der Nase.
Tim Pritlove 3:16:06
Beides, im XR halt.
roddi 3:16:12
Ich kann mir nicht vorstellen, dass sowas zulässig ist zu tragen im Straßenverkehr,egal ob du zu Fuß, mit dem Fahrrad oder mit dem Auto unterwegs bist.Insofern ist die ganze Frage, mach ich damit jetzt eine Navigation oder so, dann auch hinfällig.Da ziehen sie dich raus und dann darfst du erstmal Führerschein abgeben,da bin ich mir relativ sicher.Zumindest in Schland, aber keine Ahnung, also es ist wirklich,wir wollen alle nur das hier.So ein Bild von so einem Typen, der nur so ein Ding vor einem Auge hat,nee das wollen wir glaube ich gar nicht.
Tim Pritlove 3:16:49
Wir wollen gar nichts vor dem Auge haben also diese diese Entkopplung von derunmittelbaren Umwelt die halte ich einfach überhaupt nicht für zielführend.
Ralf Stockmann 3:16:58
Ja aber wenn du an einem Ort da bist der besser ist als das hier und jetzt.
roddi 3:17:02
Also du bist keine Zielgruppe das haben wir schon mal festgestellt.
Tim Pritlove 3:17:07
Das hängt davon ab was das Ziel ist. Dieses Fußball Beispiel. Okay, ist wieder so...
roddi 3:17:14
Hast du jetzt Blut geleckt?
Tim Pritlove 3:17:16
Ja, ich meine also...So ein Beispiel zu nennen und dann Union dazu zu sagen, also da stößt du natürlichin Bereiche vor, die wirklich gar nichts miteinander zu tun haben.Also ausgerechnet der Verein, der ganz klar sagt, dass Fernsehen sozusagen SecondClass Citizen ist für Unioner, weil es halt um das Stadionerlebnis geht.Ich kann dir sagen, eine Bierdusche gehört da einfach auch mit dazu und derLärm und so weiter, egal. Fußballromantik.
roddi 3:17:46
Da ich Glück gehabt habe das eine Mal, wo ich mit dabei war.
Oliver Zeigermann 3:17:48
Bierdusche?
roddi 3:17:50
Ja, keine Bierdusche.
Tim Pritlove 3:17:52
Keine Bierdusche, ja, aber das ist halt nicht immer so.Also oft gibt es halt eine. Also das ist, sagen wir mal, für die Analytics Leute wäre das geil.Aber für einen Stadionbesucher und für einen Fußballfan ist das nur so begrenztgeil, weil es ja auch ein gemeinsames Schauen ist.
Ralf Stockmann 3:18:12
Für die, die eben eine Jahreskarte bei Union bekommen haben,für die wäre das nicht so ganz ein bisschen geil.
Tim Pritlove 3:18:17
Die gehen in die Kneipe und schauen sich das mit anderen Leuten zusammen,weil Fußball ist halt ein gemeinsames Erlebnis.Das ist das, warum Leute zum Fußball gehen, nicht um das Spiel anzugucken.Das machen nur so Football Analytics.Die gucken sich ein Spiel an, aber die anderen gehen ja nicht ins Stadion,um sich das Spiel anzuschauen, sondern um es gemeinsam zu erleben.Das ist was ganz anderes.
Oliver Zeigermann 3:18:38
Das stimmt, das kann ich bestätigen als Fußballfan.
Tim Pritlove 3:18:40
Ja, diese Wahrnehmung, das wäre nur so ein Fernsehprodukt, das ist einfach vollkommenabsurd. Das passt einfach null und überhaupt nicht. Das wird überhaupt gar keinenErfolg haben. Null. Schon gar nicht für 3500 Euro.
Oliver Zeigermann 3:18:54
Bayern-München-Fans, die wirklich dahin gehen, weil sie nicht das erleben wollen,sondern weil die so geil spielen.
Tim Pritlove 3:18:59
Bayern-München-Fans, ey, das ist… Die haben auch das nötige Geld.Ich war jetzt zweimal bei Bayern München, ich gehe da nie wieder hin.Das ist das Schlimmste, was du dir vorstellen kannst. Also diese Leute, wirklich.Die sind so, ich weiß gar nicht, das sind so Mutanten, das sind überhaupt garkeine richtigen Zuschauer, sondern die gehen da irgendwie hin wie ferngesteuert.Also so kleine Roboter. Da ist das Spiel zu Ende und dann gehen die stillschweigend300 Meter zu dieser bekloppten U-Bahn,wo sie dann noch stundenlang warten müssen, um da irgendwie reinzukommen,weil sie natürlich irgendwie nicht gebacken bekommen, da mal ein ordentlichesÖPNV-System hinzubekommen für ein komplett neu gebautes Stadion vor den Toren der Stadt.Also nicht in der Lage, das nur zu antizipieren.Und die Leute, die singen ja noch nicht mal. Da ist ja nichts los.Die schimpfen ja noch nicht mal. Die beleidigen einen ja noch nicht mal als gegnerischen Fan.Also das ist wirklich eine Katastrophe mit Bayern München. Aber lass uns nichtüber Bayern München reden. Lass uns über ...
roddi 3:20:02
Leere Akkus reden.
Tim Pritlove 3:20:04
Der Akku ist nicht leer, der ist nur disconnected gerade. Ich probier das mal zu koppeln hier.Ja, das ist das Problem, dass wir nach wie vor keine Idee haben,was eigentlich die Story ist und ich glaube langsam, es könnte sein,dass Apple sich hier verschätzt, weil man hört nämlich auch viel darüber,wie unstritten dieses Projekt ist innerhalb von Apple.Dass sich hier irgendwie Leute durchsetzen, die vielleicht mal nicht so eingutes Fühl haben für was wirklich erforderlich ist.
roddi 3:20:38
Naja, wie ich bereits gesagt habe, ohne Ökosystem auf deiner Plattform hast du keine Plattform.Und da hat sich Apple in den letzten Jahren nicht mit Ruhm bekleckert.Ich meine, wie viele Apps aufder Uhr verwendest du und wie viele Apps auf dem Apple TV verwendest du?Das ist doch schon irgendwie, sie haben jetzt iOS, das melken sie halt,wie bekloppt, aber halt auch nur, weil jeder ein iPhone hat.MacOS ist sehr vernachlässigt und die anderen Plattformen sind alle so,mäh, und keine Ahnung,es wird ja auch gerüchtet, dass sie jetzt für iOS irgendwie den App Store öffnen,beziehungsweise Sideloading ermöglichen und andere App Stores und so weiter,wenn das kommt, wäre das meiner Meinung nach irgendwie die News der letzten zehn Jahre für Apple.
Tim Pritlove 3:21:32
Zehn. Ja. Zehn lautet die Antwort.
roddi 3:21:36
10 lautet welches?
Tim Pritlove 3:21:37
Apps auf der Uhr. Das ist mehr als auf dem Apple TV übrigens.
roddi 3:21:42
Ja bei mir sind es auf dem Apple TV glaube ich ein paar mehr,aber das liegt vor allen Dingen daran, dass ich irgendwann mal diesen Hakengemacht habe, dass er alles was ich auf dem iPhone installiere auch aufs AppleTV schmeißen soll, wenn es davon ne Apple TV Version gibt.
Tim Pritlove 3:21:58
Ach für Apple TV gibt es auch einen Haken? Oder meinst du jetzt die Watch?
roddi 3:22:04
Es gibt ja so universal Apps, die auch eine Apple TV Variante haben.
Tim Pritlove 3:22:08
Wo kann man das einstellen?
roddi 3:22:10
Irgendwo in den Einstellungen.
Tim Pritlove 3:22:11
Von welchen, von was?
roddi 3:22:12
Von der Apple TV.
Tim Pritlove 3:22:14
Apple TV kann ich sagen, also automatisch alle Apps, die auf dem iPhone sind?
roddi 3:22:18
Ja, alle iOS Apps. Really?Und neulich habe ich die App vom schwedischen Fernsehen runtergeladen für dieElche, wir sprachen davon, auf deine Uhr. Nein aufs Apple TV.
Tim Pritlove 3:22:35
Da gibt es durchaus Bedarf, gerade so im Sportbereich denke ich mal,aber egal wir drehen uns im Kreis, ich fasse zusammen, keiner weiß wozu das Ding gut sein soll.
Oliver Zeigermann 3:22:45
Nein, nein, nein, das fasst du ja falsch zusammen, ne?
Tim Pritlove 3:22:47
Was denn?
Oliver Zeigermann 3:22:49
Doch, wir haben doch Use Cases gefunden. Du kaufst die nicht, und ja.
roddi 3:22:53
Also für mich ist Entertainment ein klarer Use Case, vielleicht ein schwacher,weil nicht alles Entertainment sich für so ein Gerät eignet, aber es ist ein Use Case.
Tim Pritlove 3:23:05
Entertainment, was für ein Entertainment, Adult Entertainment oder was?
roddi 3:23:08
Nein.
Ralf Stockmann 3:23:08
Spiele.
Tim Pritlove 3:23:11
Was konkret? Sag mal, was, wofür würdest du so einen Scheiß kaufen?
Ralf Stockmann 3:23:15
Nina Philharmonica Live.
Tim Pritlove 3:23:16
Dafür würdest du dir so eine Apple-Kamera kaufen?
Ralf Stockmann 3:23:19
Wenn das sehr gut gemacht ist technisch, wär das ein Punkt.
roddi 3:23:22
Also, für ... Ich sag mal so, für diverse Spiele, ja.Also, wie ich bereits sagte, Half-Life Alyx, das gibt's ja nur als VR-Spiel,aber ich hab kein VR-Gerät, deswegen kann ich's nicht spielen.Deswegen hab ich das Spiel auch noch nicht gespielt.Es gibt diverse Sim-Racing-Spiele, wo du tatsächlich mit einer VR-Brille fahren kannst.Leute sagen, das wäre sehr geil. Das würde ich natürlich ausprobieren,wenn ich so ein Gerät habe. Aber ich habe keins. Also hätte, aber ich habe keins.
Tim Pritlove 3:23:59
Wie viele Leute, die so eine Playstation oder eine Xbox haben,haben da eine 3D-Brille dazu?
roddi 3:24:06
Nicht so viele, aber wie ich bereits sagte, das ist ein Henne- und Ei-Problem,wobei sowohl die Henne als auch das Ei noch Nachholbedarf haben.Insofern können wir uns in sechs Jahren nochmal darüber unterhalten,wenn das mit Apple schief gegangen ist, was sich dann bei Playstation,Xbox oder PC irgendwie im Entertainment-Sektor zum Thema VR getan hat.
Tim Pritlove 3:24:29
Also ich bin auf jeden Fall sehr gespannt, worüber wir uns da unterhalten in der nächsten Sendung.
roddi 3:24:36
Ja, wahrscheinlich über das XR nicht ganz so stark wie hoffentlich über andereDinge, die da dann hoffentlich passieren.Aber ich meine die letzten paar Versionen von macOS oder iOS haben ja auch jetztirgendwie keine groundbreaking neuen Dinge mehr eingeführt.Also du hast bei MacOS vor drei Major-Versionen hast du dann mal so ein bisschen,sieht ein bisschen anders aus und so ein bisschen Fullscreen von Apps,aber das war's dann auch schon.Und bei iOS, was war dann da jetzt irgendwie großes?Na, haben sie jetzt diese komische Zusammenarbeit App noch da drauf geschaufelt,die keiner mitbekommen hat?Widgets. Widgets auf dem Homescreen und so,ja, das ist so alles so Kleinkram, aber jetzt nichts, wo man sagen würde so,hey, seit der Version ist alles viel besser geworden, sondern das sind haltso Kleinkram, der da passiert ist.Manchmal ist es ja auch gut, wenn so ein System so ausgereift ist,dass du das Gefühl hast, da ist jetzt wenig, was mir fehlt, was sie unbedingt noch fixen müssen, ne?Ja klar gibt's Dinge, aber also das große Ding und wenn sie es an,wenn sie das tatsächlich ankündigen, ist für mich immer noch Sideload und öffnenvon von von Third-Party-Anwendungen.Weil, wenn Apple nicht mehr als Gatekeeper zwischen den Developern steht unddem App Store und den Leuten nicht mehr dies und jenes und sonstiges verbietet,ich glaub dann hat die Plattform als solches nochmal ganz andere Möglichkeiten.
Tim Pritlove 3:26:25
Okay, das ist eine andere Diskussion.
roddi 3:26:27
Ja, ist eine andere Diskussion, aber es ist ja auch eine WWDC,es ist ja eine Developer-Konferenz, wo es vor allen Dingen um Software geht.Und wenn in der WWDC gesagt wird, hey, ihr Third-Party-Developer,ihr dürft jetzt plötzlich ganz viel mehr, dann ist das ein großes Hallo.Wenn die jetzt sagen, ja, da wird so eine Brille kommen und wir haben hier malso einen Prototyp und hier ist das dazugehörige XR OS und ihr könnt jetzt entwickeln,naja, mal sehen. Also ich werde es mir natürlich angucken.Und je nachdem, wie viel sie dann für das Prototypgerät haben wollen,wollen, werde ich mir auch eine bestellen. Sicherlich nicht für ein Tausender.Bei 500 werde ich wahrscheinlich ganz schön mit den Zähnen knirschen und dannwerdet ihr das dann in der nächsten Sendung erfahren, was meine Entscheidung war.Aber wenn die dann nur 100 kostet oder so für den interessierten Entwickler,dann würde ich mir so ein Teil halt klicken und mal gucken.
Tim Pritlove 3:27:31
Ja ich fasse zusammen keiner hat wirklich eine konkrete Vision.Der Chad meint zwar hier und da so viele Use Cases ja und ich meine es gäbekeine aber das sind halt keine Use Cases die wirklich mich überzeugen im Sinne von,Das ist jetzt so eine komplett neue Achse von Mensch-Maschine-Kommunikation,die unbedingt aufgemacht werden musste.Weil das ist das, wofür Apple steht.Und das gelingt ihnen ja in letzter Zeit in zunehmendem Maße weniger.Warum haben wir eigentlich nicht über Siri geredet?Weil Siri ist einfach nur scheiße. Das wäre natürlich was, wenn sie da jetztquasi nochmal ein neues Tor aufmachen und sagen jetzt gibt's hier irgendwie Siri XP, Siri 95.
roddi 3:28:28
Ja, aber auch das bringt's ja nur, wenn sie die Developer dann mitnehmen und sagen,hier ist jetzt endlich mal eine API für Siri,die man benutzen kann, damit man Siri irgendwie was sinnvolles tun lassen kann,also es gibt's ja in dem Sinne auch nicht, ja, es gibt eine API,aber die ist so erstens total Banane und zweitens kann sie nichts.Ja. Also das ist so, ähm, naja.
Tim Pritlove 3:28:58
Na gut.
roddi 3:28:59
Da fragt jemand, ja man wird sicherlich für X, das XR OS wird man sicherlich Hardware brauchen.Vielleicht gibt's auch so eine Cardboard Box, wo man das iPhone reinsteckt,aber das haben auch andere Leute sehr erfolglos versucht, muss man mal sagen.
Tim Pritlove 3:29:18
Achja, gut, begraben wir das Thema, kommen wir vielleicht noch zu ein paar Kleinigkeiten.Ich bin übrigens jetzt gerade erst auf Ventura umgestiegen,es war eher ein Unfall, ich hab den falschen Update Button geklickt und dannhatte ich auf einmal die Version auf meinem Laptop und dann hab ich irgendwiedie eine Sache wo ich Angst hatte, dass sie nicht mehr läuft,ausprobiert, lief dann trotzdem, da hab ich gesagt, okay scheiß drauf.Dann aktualisiere ich halt jetzt alles da drauf, aber muss sagen, dieses...Diese Systemeinstellungen, die machen mir Angst. Also wenn das so weiter gehtund das ganze macOS bald nur noch so aussieht wie ein iPad, dann sorry, dann das geht gar nicht.
roddi 3:30:01
Für die Systemeinstellungen haben sie aber auch viel Prügel bezogen und auch zu Recht.
Tim Pritlove 3:30:06
Absolut zu Recht.
roddi 3:30:07
Also wenn die Systemeinstellungen nicht eine Suchfunktion hätten,dann wäre es auch komplett nicht benutzbar.Also sagen wir mal so, wenn man die Einstellungen von iOS gut kennt,dann kann man sich da einigermaßen zurechtfinden, weil ich mein,das ist es ganz offensichtlich.Offensichtlich haben sie die Einstellungen App, die Preferences App von iOS rübergeholt.Aber ich geb dir da total recht, also die vorherigen Einstellungen,da haben gute UX-Designer lange drüber nachgedacht, wie man das macht, sodass es gut ist.Und da hat offensichtlich niemand drüber nachgedacht, sondern einfach nur Menüpunktein so eine Seitenleiste gerümpelt.
Tim Pritlove 3:30:57
Also das ist so, man denkt sich so, okay, so kann es auf gar keinen Fall bleiben,das werden sie bestimmt in der nächsten Version komplett überarbeiten und dieBefürchtung ist, das wird nicht stattfinden.
roddi 3:31:10
Äh, hab ich keine Meinung zu, also, ähm.
Tim Pritlove 3:31:14
Musst du ja auch nicht haben. Ich geh nur davon aus, dass es nicht passierenwird. Hab da relativ wenig Hoffnung.
roddi 3:31:22
Also ich kann mir nicht vorstellen, dass sie das in einem Update-Zyklus machen.Ich glaube nicht, dass wir es dieses Jahr sehen werden, aber wenn sie es machen,dann sehen wir es nächstes Jahr.
Tim Pritlove 3:31:30
Okay. Ein Vorteil hat es allerdings,ich konnte die neue Version von Ivory auf dem Mac installieren,um mal an diesem Mastodon-Netzwerk auch auf dem Computer teilnehmen zu können,was für mich gleichbedeutend ist, mit überhaupt daran teilnehmen.Weiß nicht wie es euch geht aber ich kann mit Webbrowser, also das geht einfach, eine Zumutung.
roddi 3:31:59
Mit IOS konntest du das auch nicht oder wie?
Tim Pritlove 3:32:01
Mit IOS war ich schon auf der aktuellen Version da lief, da war das ja auchschon released aber das Ivory von Mac ist gestern rausgekommen.
roddi 3:32:08
Ja ich hab's vorhin auch installiert aber das sieht, ja bei mir,ich muss da jetzt noch irgendwie Features freischalten glaube ich damit das richtig funktioniert.
Tim Pritlove 3:32:18
Kaufen meinst du?
roddi 3:32:21
Zahlungspflichtig freischalten, ja.
Tim Pritlove 3:32:22
Das coole ist, man kann, na was heißt cool, aber was es auch gibt,es gibt einen Dienst, der heißt Skybridge, den jemand gehackt hat.Und Skybridge, wie der Name schon sagt, also skybridge.fly.dev,und das ist quasi ein Translator der Blue Sky RP, also dieses Ad-Protokolls auf Mastodon.Mit anderen Worten du kannst an dem Blue Sky, wo du ja jetzt auch einen Accounthast, Roddy, wenn ich das gerade richtig gelesen habe.
roddi 3:33:02
Ich hab den kurz vor dem Sendungsbeginn eingerichtet.
Tim Pritlove 3:33:05
Ja wie heißt der?
roddi 3:33:06
Rotti.bgsky.social.
Tim Pritlove 3:33:13
Ah, du weißt, dass du da jetzt in deinem DNS einen Eintrag machen kannst unddann hast du deine eigene Domain.
roddi 3:33:19
Da hatten wir drüber gesprochen ja, aber das ist ja jetzt der Blue Sky Account und nicht der.
Tim Pritlove 3:33:25
Jaja das geht auch mit einem Blue Sky Account. Also ich bin auf Blue Sky,bin ich at tim.brittler.org.Ich wollte das jetzt nur fallen lassen, um cool rüber zu kommen,auf jeden Fall gibt es skybridge.fly.dev,und da kannst du dann quasi dafür sorgen, dass du mit Ivory Dein blue sky accountmit rein bekommst und der sieht für ivory so aus als wärst du dann akkord.Man kann man quasi zwischen mastern und accounts und blues sky accounts hinund her schalten in derselben app genau das ist also nur eine notification schemefür diesen ganzen unsinn und dann kann man sozusagen das auch besser ausprobieren.Ja und es scheint auch so ein bisschen auf ivory optimiert zu sein schreibensie zumindest dass sie damit im wesentlichen testen und das ist so ihr primarytarget derzeit aber grundsätzlich sollte es natürlich mit allen funktionieren.Kann man mal machen.
roddi 3:34:29
Okay.
Oliver Zeigermann 3:34:31
Was ist denn hier also ich habe ja hier offensichtlich kein Mac aber diese KameraÜbergabe Geschichte und dass du dein iPhone als Webcam benutzen kannst.Ist das was oder ist das scheiße?
Ralf Stockmann 3:34:43
Ich habe es noch nie genutzt.
roddi 3:34:45
Ich habe es auch noch nicht ausprobiert.
Oliver Zeigermann 3:34:47
Jetzt sehe ich nämlich auch noch es gibt die Schreibtischansicht du klemmstalso deine Kamera also dein Handy oben an das an dein Macbook,arbeitest mit anderen Leuten zusammen und die sehen dich irgendwie auch so inder Art als wärst du im Raum oder so.
Tim Pritlove 3:35:01
Nee die sehen den Platz vor deinem Laptop du kannst also hier irgendwas hinschreibenund das quasi benutzen wie so ein Overhead Projektor.
roddi 3:35:10
Jetzt wo du es sagst das hatten sie letztes Jahr angekündigt ich hab's nie ausprobiert.
Tim Pritlove 3:35:14
Dazu musst du dein Telefon ja irgendwie oben an deinem Ding dran klemmen,oben an deinem Laptop musst du es dran klemmen.
Oliver Zeigermann 3:35:21
Also es gibt ja irgendwas.
roddi 3:35:22
Wenn man das dran klemmen Ding hat, ich hab das jetzt nicht.
Tim Pritlove 3:35:25
Also mir würden 30 Features einfallen, die sie unbedingt mal in MacOS einbauensollten, aber das gehört definitiv nicht dazu.
Oliver Zeigermann 3:35:32
Ich verstehe. Aber vielleicht so eine virtuelle Geschichte, dass es alles coolerist und dann fällt mir gleich wieder die Kamera, äh Quatsch,die Kamera, die Brille ein.Nicht, dass ich die Brille jetzt wieder, also jetzt hab ich schlimme Sachen.Na, sag. Warum muss ich denn das haben? Kann ich nicht die Brille mit Kameraund die Leute sehen, was ich sehe oder so?Irgendeine Zusammenarbeitsgeschichte oder ist das totaler Quatsch?
Tim Pritlove 3:35:54
Du meinst Zoom Meeting abschaffen.
Oliver Zeigermann 3:35:56
Ja ich höre irgendwie, ich versuche ja noch irgendwas zu retten, ich weiß auch nicht.
Tim Pritlove 3:36:01
Kollaboration.
Oliver Zeigermann 3:36:02
Ja sowas.Also hier im Hintergrund, die anderen schweigen jetzt, weil sie das mit demHandy ausprobieren, es scheint nicht zu funktionieren, man ist unzufrieden.
roddi 3:36:14
Es funktioniert schon, es gibt mir nur irgendwie jetzt gerade kein zusätzliches.
Tim Pritlove 3:36:19
Ich würde mein Telefon vor allem überhaupt nicht opfern wollen,wenn ich mit meinem Rechner arbeite, da ist für mich einfach der,das Telefon einfach ein wichtiger Second Screen, also das wäre eher so eineNotlösung, wenn man jetzt irgendwie, wenn die Webcam im Laptop kaputt gegangenist, aber das ist für mich irgendwie nicht so.Als Captcha Quelle ist es an sich cool, also so irgendwo auf dem Rechner sagenich will jetzt hier ein Foto einbinden und das schieße ich in dem Moment mitmeinem Telefon, das ist ja völlig in Ordnung, das kann man machen,aber andere Kram halte ich für.
Oliver Zeigermann 3:36:51
Aber das Iphone hat ja eine so viel bessere Kamera und hat einfach vielleicht,will das benutzen oder? Ist das nicht nachvollziehbar?
roddi 3:36:58
Ja, aber meiner Erfahrung nach sind diese ganzen Videolösungen ja sowieso so,dass das Bild, was auf der anderen Seite nicht mal so gut ist,wie die Kamera, die eingebaut ist.Also was soll das?
Oliver Zeigermann 3:37:13
Na vielleicht der Winkel, also dass du vielleicht irgendwie nicht den ganzenHintergrund haben willst, sondern nur so leicht telemäßig, dreifach tele,habt ihr doch als Mac Benutzer, äh als iPhone Benutzer weiß ich ja.
roddi 3:37:24
Zweifach.
Oliver Zeigermann 3:37:24
Habt ihr nur zweifach.
roddi 3:37:26
Also meins hat zweifach.
Oliver Zeigermann 3:37:27
Achso, ich hab dreifach.
Tim Pritlove 3:37:31
Da siehst du, du hast dreifach.
Oliver Zeigermann 3:37:33
Und da sieht man auch gar nicht so schlecht aus. Also macht man das so als Fotografen,machst du es dann eher so.
Tim Pritlove 3:37:39
Ich sehe auch bei einfachem Zoom nicht so schlecht aus.
Oliver Zeigermann 3:37:41
Das ist für dich eine Einzelllösung, ja, aber für uns anderen,du musst ja auch an uns denken.
roddi 3:37:47
Ich würde dann eher Weitwinkel nehmen statt Dreifach.
Oliver Zeigermann 3:37:49
Nein, nein, nein, das ist keine gute Idee.
roddi 3:37:52
Wenn die Nase da groß ist.
Oliver Zeigermann 3:37:54
Ja, genau.Ich hab mich bemüht, okay.
roddi 3:38:00
Ja nee, nee, nee, es war ein guter Einwand, aber, äh.
Tim Pritlove 3:38:06
Arbeitest du denn wirklich, also ich meine.
Oliver Zeigermann 3:38:08
Ich hab ein Mac zu Hause, ja.
Tim Pritlove 3:38:10
Du hast ein Mac zu Hause?
Oliver Zeigermann 3:38:12
Aha, jetzt kommst du raus. Keine Ahnung wie du das aus mir rausgekitzelt hast. Aha.
roddi 3:38:18
Das klang jetzt nicht so schwierig.
Tim Pritlove 3:38:21
Nee, aber du lebst schon so auf mehreren Plattformen, kann man das sagen?Ja, völlig egal. Und das ist dir völlig egal?
Oliver Zeigermann 3:38:28
Ja. Bild völlig egal. Das ist mir egal.
Tim Pritlove 3:38:31
Du hast keine Betriebssystem religiöse.
Oliver Zeigermann 3:38:33
Überhaupt nicht. Das hier ist Touch. Guck mal ich hab hier Windows mit Touch.Das ist großartig. Ich hab hier einen Stift. Guck mal ich klapp mich auf.Hier ist der Stift. Zack.Mal ich. Sieht scheiße aus aber ich mal. Könnt ihr nicht.
Ralf Stockmann 3:38:46
Also ich hab auch acht Stunden am Tag Windows so und halte das aus.Es gibt Schlimmeres im Leben.
Tim Pritlove 3:38:51
Echt? Ja.
Oliver Zeigermann 3:38:53
Genau, und Samsung macht 100x, stimmt. Hab ich auch, ich hab hier, seht ihr ja nicht?
Tim Pritlove 3:38:57
Optisch natürlich.
Oliver Zeigermann 3:38:58
Natürlich nicht, aber 10-fach optisch. Mein Samsung kann 10-fach optisch,das sieht richtig gut aus.Ja, glaubt ihr natürlich nicht, ihr habt ne Antwort.
roddi 3:39:06
Na gut, ich meine, das iPhone kann auch so lange reinzoomen, bis du noch Pixel 3 hast.
Oliver Zeigermann 3:39:11
Optisch, optisch 10-fach, geht. Echt. Glaubt ihr nicht, ne? Nee. Doch, ist so.
roddi 3:39:16
Aber nur beim Mond, oder wie war das?
Oliver Zeigermann 3:39:18
Nein, das ist echt fake, hab ich auch ausprobiert, das sieht so gut aus,dass du denkst, das kann nicht sein.
Tim Pritlove 3:39:22
Es ist schon klar, dass bei all diesen Telefonen, irgendein Telefon hat immerirgendein Feature, was total beeindruckend ist und das hält vielleicht auchmal zwei Jahre, aber dafür ist der Rest meistens halt Unsinn.
Oliver Zeigermann 3:39:31
Ja, das stimmt.
roddi 3:39:33
Ja gefühlt werden auch nur die Kameras besser, alles andere bleibt irgendwie wie es ist.
Tim Pritlove 3:39:39
So sind uns die Themen dann ausgegangen? Ja ne?
Ralf Stockmann 3:39:41
So ein bisschen.
Oliver Zeigermann 3:39:43
Ich glaub wir können zusammenfassen, mehr Bums hilft immer.
Tim Pritlove 3:39:45
Ja definitiv.
Oliver Zeigermann 3:39:46
Alles andere bis jetzt auch nicht.
Tim Pritlove 3:39:48
Ja ja.
Oliver Zeigermann 3:39:49
Hauptsache mehr Bums.
Tim Pritlove 3:39:50
Hauptsache mehr Bums. Ja. Ja, na dann, wie ich sagen, falten wir doch mal hierdie Sendung zusammen Olli, vielen vielen Dank fürs kommen.
Oliver Zeigermann 3:39:58
Sehr gern.
Tim Pritlove 3:39:59
Aus Hamburg?
Oliver Zeigermann 3:40:00
Ja aus Hamburg.
Tim Pritlove 3:40:01
Ja super.
Oliver Zeigermann 3:40:01
Auf St.
roddi 3:40:02
Pauli.
Oliver Zeigermann 3:40:02
Ich wohne nicht mehr in St.
roddi 3:40:05
Pauli, aber ich habe da auch mal drei Monate, vier Monate gewohnt. Auf St.
Oliver Zeigermann 3:40:09
Pauli? Ja. Muss man da auch nicht kennen.
roddi 3:40:12
Drei Monate davon direkt am Hans-Albers-Platz.
Oliver Zeigermann 3:40:14
Oha.
Tim Pritlove 3:40:15
Nicht schlecht. Ich habe es mal in einem Spittel ausgehalten.
roddi 3:40:18
Nicht der Nachahmung empfohlen, sag ich mal ganz vorsichtig.Aber es war morgens immer, morgens habe ich immer das Fenster aufgemacht und das erste Geräusch war.Bierflaschen. Richtig, Bierflaschen. Das Reinigungsfahrzeug von der Stadtreinigung,das sämtliche Scherben weggeräumt hat, das war immer das gleiche.Brumm, Schengel, Schengel, Schengel.Das verbinde ich jetzt mit Hamburg.
Tim Pritlove 3:40:48
Kann ich verstehen. Ich war in einem Spittel, da war es nicht ganz so laut.Das war eigentlich ganz angenehm.Aber war dann auch gut irgendwann.So, Ralf, hast du noch ein letztes Wort? Ja. Dann würde ich sagen,Leute, dann ist das Ende, es ist nah.
roddi 3:41:10
Ende Gelände.
Tim Pritlove 3:41:11
Genau, und das heißt, wir werden jetzt hier mal ein Outro anstoßen.Ja, und ich noch mal vielen Dank fürs Kommen und Zeigermann.eu,da gibt's mehr zu dir zu klicken. Links alles in Shownotes, ihr wisst schonBescheid. Also, wir sagen Tschüss, bis bald, in drei oder vier Wochen sind wir wieder da.
roddi 3:41:36
Tschüss, ciao, bis demnächst.
Shownotes

47 Gedanken zu „FS266 Mehr Bums

  1. zum thema was apple mit xr will:
    das einzige was mir einfällt und was zu dem price-tag von 3,5k passt ist unendlicher screen estate für professionals. mit einer vr-brille wäre ein randloses infinity-display möglich. man hätte in der breite und der tiefe unendlich platz und auflösung. will ich was genauer anschauen neige ich meinen kopf nach vorne und sehe nicht größere pixel sondern mehr detail. will ich überblick haben lehne ich mich zurück und schau mir das vista an. ich benutze aktuell ein 27 zoll qhd display. wenn ich grade draufschaue wird so ca. 60% des sichtbaren bereichs benutzt, größere displays machen mehr, aber mit einer vr-brille würde man sich komplett von der fragestellung lösen welche displaygröße/auflösung für mich passt. das würde aber voraussetzen dass die brille mit sehr guten displays konkurrieren kann. mindestens 4k bei 120hz als untergrenze und sehr guter farbdarstellung. für den alltag ist das erstmal nichts, aber dass es für ein infinity-gdisplay andere ui-paradigmen braucht und damit ein komplett neues os leuchtet mir ein.

  2. Ich bin ein riesiger Fan der Freak Show und höre die neuen Folge sofort nach Veröffentlichung mit viel Vergnügen!!

    Die heutige Folge fand ich ehrlich gesagt mit den ersten 2:30h ausschließlich zu AI und ChatGPT stark unausgewogen. Die eigentlichen Grundlagen zu Model-Training und -Hosting wurden sehr oberflächlich und mit wenig tiefgreifendem Wissen besprochen („Mehr Bums“).
    Der Hype ist ja nachvollziehbar, aber beim live prompting und Klickanweisungen sind mir dann beim Zuhören die Füße eingeschlafen. Wenn ich Tim nicht schon seit 15 Jahren hören würde, hätte ich gedacht, dass OpenAI euch sponsored.

    Freue mich schon auf die nächste Folge :)

  3. Zum XR-Produkt: Ich denke Tims Erwartungen/Ansprüche sind da etwas zu hoch. Es war doch bei iPad und Watch schon ähnlich: Was wurde nicht alles diskutiert, welche geniale Idee Apple da jetzt hätte, welche tolle Story sie uns erzählen würden… und dann war es beim iPad einfach „auf dem Sofa sitzen und konsumieren“ und bei der Watch Fitness. Nichts überraschendes Neues, nur eben von Apple. Es wird erst mal teuer sein und es wird erst mal nicht viel gehen, aber das ist auch nicht so wichtig, denn es geht jetzt darum dabei zu sein, diese Plattform zu starten. In zehn Jahren wird sich auszahlen was da jetzt vorbereitet wird. Naja, oder es floppt, weil Apple sich da wirklich verrannt hat und niemand sowas braucht, aber das sie sowas jetzt machen finde ich sehr nachvollziehbar, denn das Potenzial scheint mir doch riesig.

  4. Kurze Ergänzung zu Dirk Gentlys: Es gibt eine von BBC America und Netflix zusammen produzierte Serie mit 2 Staffeln die mir (ohne die Bücher gelesen zu haben bis jetzt) auch schon viel Freude bereitet hat.

  5. Ein Use-Case für xrOS, den ihr nicht diskutiert habt: Das Ding könnte ein interessanter MacBook/iPad-Ersatz sein. Du hast damit immer ein großes Display mit, ohne Platz zu verbrauchen oder ein sperriges Gerät mitschleppen zu müssen. Keine komische Körperhaltung mehr. Das würde auch den Preis rechtfertigen und in einer echten Arbeitssituation stört dein blockiertes Sichtfeld nicht (bzw ist vllt sogar wünschenswert). Aber sie müssen halt einen guten Maus/Tastaturersatz erfinden.

    An xR als iPhone-Killet glaube ich dagegen auch nicht. Da gehe ich mit Tim mit, dass xR viel zu invasiv ist.

  6. Wofür würde ich Apple 3.500€ in den Rachen werfen?
    Für ein gut ausgestattetes MacBook (Pro), für einen iMac oder MacPro.
    Was, wenn „die Brille“ ein MacBook, einen iMac, MacMini oder einen MacPro (komplett) „ersetzen“ kann?
    Ich sitze vor einem riesigen, virtuellen Bildschirm, über die Brille wird eine virtuelle Tastatur eingeblendet, ein virtuelles Touchpad oder eine Maus, die auf jede beliebige Oberfläche „gelegt“ werden kann, wenn ich sie benötige, egal wo ich mich gerade befinde. Voraussetzung ist natürlich ein zuverlässiges Finger-Tracking, nicht nur Hand-Tracking (angeblich bereits technisch realisiert). Alle meine Apps die ich von meinen Macs kenne, laufen „auf der Brille“, eine Art MacOS on steroids, vielleicht sogar in 3D, verschiedene Bildebenen, Fenster können nach vorne geholt oder nach hinten geschoben werden, mit meinen Händen kann ich die Tastatur, das Touchpad, die Fenster und Widgets physisch im (virtuellen) Raum verschieben. „Spaces“ schaue ich mir an, indem ich den Kopf nach rechts oder links drehe und mit den Händen dann „in die Mitte“ verschiebe, zentriere, etc. Demos von entsprechenden „Betriebssystemen“ gab es schon vor vielen Jahren, allerdings eben auf dem Monitor und nicht über eine Brille. Das Apple-Sillicon liefert vermutlich genug Performance um eine solche Brille zu powern, CPU, GPU, Neural Engines, etc. Per „Handoff“ kann ich auf dem iPad oder Mac weiterarbeiten, wenn ich keinen Bock mehr auf Brille habe und umgekehrt. Ein kompletter, (weitestgehend) vollwertiger Rechner IN einer Brille, über den ich AUCH Entertainment Apps nutzen kann (Spiele, Movies, TV, etc.), DAFÜR würde ich 3.500€ ausgeben! Warum haben einige Apple-Mitarbeiter Probleme damit eine „halbgare“ Brille auf den Markt zu werfen? Vermutlich reicht die Leistungsfähigkeit und/oder die Leistungsaufnahme aktuell noch nicht wirklich für ein „gutes“ Apple-Erlebnis aus. Vielleicht müsste man noch ein, zwei, drei Prozessorgenerationen warten, Spekulation…. Aber in diesem Szenario wären vom Tag 1 an praktisch ALLE derzeit auf MacOS laufenden Apps für die Brille verfügbar, was für eine Value Proposition!!! Dazu die iOS-Welt, Widgets, etc. Natürlich könnten/müssten Developer ihre Apps dann entsprechend an die neuen Möglichkeiten anpassen…aber das war ja schon immer so…

  7. Zur XR-Brille:
    Für 3,5 k€ wird das wohl kein Endkundenprodukt werden. Ich könnte mir vorstellen, dass sie es primär für Bildungseinrichtungen (Schulen, Universitäten) positionieren. Das passt zum Apple-Image und sie können damit die Kunden von morgen an ihre Produkte heranführen.

    • Glaube ich überhaupt nicht. Schau dir die iPad/Chromebook-Deals in USA mit den Schulen an. Dein angesetzter Preis für die Brille ist eine Menge Geld, dafür dass es dafür noch keine fertigen Materialien gibt. Das ist auch ein eher übersichtlicher Markt, der nicht ständig neu investiert und lange Ausschreibungen etc. hat.

  8. Nicht ganz ernst gemeint: Vielleicht ist es ein Trick von Apple. Sie setzen ein Gerücht in die Welt, dass eine hochpreisige kompromisslose VR/AR-Brille angekündigt. Anschließend grasen sie das Netz nach tauglichen Geschäftsideen ab.

    Die Militärs dieser Welt wären grundsätzlich sicherlich Abnehmer hochwertiger Geräte für Simulatortraining und semi-autonome Drohnen/Roboter.

    Vom Bauchgefühl her, würde ich den Einsatzzweck aber eher Richtung Home- bzw. Tele-Arbeit verorten, da dies aufgrund von Covid sehr stark vorangetrieben und auch geblieben ist. Eventuell besinnt sich Apple auf Stärken der Vergangenheit und hat ein System für virtuelle Filmproduktion entwickelt. Die Kunden in dem Segment geben auch ein paar tausend Dollar für Kameras und Motion-Capture-Suits aus. Da bekommt man eine hochpreisige VR/AR-Brille sicher verkauft, wenn die Qualitat stimmt. Zudem braucht man dafür such keine riesigen Mengen. Dafür bringt es zusätzlich Prestige.

  9. Zu Sam Altman: Das Auftreten vor dem Congress mag vielleicht etwas anders gewesen sein als bei Zuckerberg, aber auch Altman hat ein Crypto Startup, das Wallets auf Basis von Biometrie (Iris-Scan) erstellen will und gerade Series C Funding von einer sehr sympatischen Truppe (incuding a16z crypto, Bain Capital Crypto and Distributed Global) erhalten hat.

  10. Was, wenn Apple genau die von Tim im Podcast erwähnten no goes bei Brillen (Brille aufsetzen, wieder absetzen, …) gelöst hat: eine Brille die alle Fehlsichtigkeiten (sofern vorhanden) digital in Echtzeit fixt? Ist das noch zu sehr SciFi? Um kein Glasshole zu sein dürften die Kameras/Sensoren keine Bilder/Videos nach draußen lassen – Kommunikation mit Apps nur über APIs?

  11. Ich meine, die Brille macht nur Sinn, wenn es sich bei ihr um ein medizinisches Produkt handelt plus VR. Stellt euch vor, dass keine unterschiedlichen Gläser vom Optiker mehr notwendig wären, sondern sich diese der unterschiedlichen Sehstärke automatisch anpassten. Apple würde die ganze Branche revolutionieren, indem Brillengläser sich selbst einstellen. Oben drauf gibt es das von Euch in der Sendung besprochenen VR Gelöte, welches eigentlich nur eine Nebenschauplatz darstellt. Der Preis wäre in diesem Fall gerechtfertigt, weil eine normal Gleitsichtbrille mehr als 1000 Euro kosten kann und mit Veränderung der Sehstärke kommen Kosten hinzu. Es wird bunte Brillengestelle geben wie es Armbänder für die Apple Watch gibt.

  12. Ich hab mal mit ChatGPT (3.5) herumgespielt und geschaut, ob man da nicht mit Ascii-Art Bilder rauszaubern kann. Stellt sich raus: Es geht. Allerdings sehr, sehr schlecht.
    Was immer man abfragt, es ist viel Quatsch dabei und wenn mal etwas erkennbar ist, dann sind es – Überrraschung – Penisse. Womit das System halt vermutlich gefüttert wurde.

  13. Hallo,

    weil die Machine Learning-Beschreibung etwas oberflächlich war und Tim auf seine Frage zum Unterschied zwischen herkömmlichen neuronalen Netzen und Deep Learning keine Antwort erhielt, hier ein Versuch einer Erklärung:

    Im klassischen Maschine Learning hat man sehr viele unterschiedliche Verfahren eingesetzt, wie z.B. Support Vector Machines, Decision Trees, oder K-Nearest Neigbor-Verfahren – und eben auch neuronale Netze. Herkömmliche neuronale Netze haben drei Layer mit Neuronen, nämlich eine Input Layer, einen Hidden Layer und einen Output-Layer. Beim Training musste man früher die Daten per Hand vorverarbeiten und bereinigen, und dann die Merkmale manuell extrahieren. Der Vorgang nennt sich Feature Extraction. Und dann hat man die vorverarbeiteten Features in das Netz zum Training gegeben (der Input Layer hatte dann so viele Inputs wie es Merkmale/Features gab). Dann musste man gucken, welche Merkmale auf die Modell-Performance (Genauigkeit und Fehler) welchen Einfluss haben und die Merkmale mit hohem Einfluss hat man dann weiter genutzt.

    Beim Deep Learning wird die Feature Extraction automatisch vom Netz übernommen. Die tiefen neuronalen Netze haben einen Input Layer, beliebig viele Hidden Layer und einen Output Layer. Die Feature Extraction läuft dann über die Hidden Layer, wobei man nicht steuern kann, welche Features in welchem Layer prozessiert werden. Das macht das Netz von selbst. Beispielsweise bei der Bildanalyse mit Deep Learning lernt ein Hidden Layer die Farbverteilung im Bild, ein weiterer Hidden Layer lernt die Kontraste, ein weiterer Kanten, ein weiterer Kurven, und ein weiterer Hidden Layer dann die higher-order Repräsentation daraus (z.B. die Katze). Wie viele Hidden Layers man verwendet, muss man dann halt ausprobieren. Es geht also im Vergleich zum Shallow Learning alles einfach nur automatisch. Dazu kommt dann noch die höhere Rechenpower.

    Ich hoffe, ich konnte damit etwas zum Unterschied zwischen Shallow und Deep Learning beitragen.

    Übrigens noch ein Hinweis zur Innovation von ChatGPT: Es gab früher sogenannte Recurrent Neural Networks RNN. Die konnten im Vergleich zu normalen Netzen auch Zeitreihen verarbeiten. Also Datensätze, in denen die Daten eine zeitliche Abhängigkeit haben. Damit haben sich RNNs hervorragend für die Sprachverarbeitung geeignet. Die Nachfolgemodelle der RNNs waren dann die LLMs, die deutlich weiter in die Vergangenheit gucken konnten als die RNNs. Bei ChatGPT gibt es mehrere neuronale Netze, die da zusammenarbeiten. Damit wurde ein neues Konzept, des sogenannte Attention Modelling, eingeführt, bei dem ein assoziiertes neuronales Netz sich im Datenraum merkt, worum es gerade geht und somit den Verlauf der Konversation mit abbilden kann.

    Toller Podcast – peace!
    Erich

  14. Thema XR: Diesmal hält es mich nicht auf dem Sitz, weil meiner Meinung nach niemand vor lauter Suche nach der einen „Killer-App“-Pflanze den Wald sieht, der um uns wächst. Die Vision ist, dass eine XR-Brille (natürlich mit Korrekturgläsern, falls benötigt) generell die Rahme von Displays sprengt und letzter überflüssig machen wird.
    Bei Gesprächen in den letzten Jahren habe ich die Frage „Was ist die Killer-App“ auf den Kopf gestellt: „Nennen mir auch nur eine App, die durch XR nicht disruptiv besser wird!“ und damit das Bild im Bekanntenkreis vermitteln können. Ich gehe mal ein paar wenige Beispiele durch, die dabei aufkamen:
    * Desktop: Momentan reichen mir meine drei Monitore bei weitem nicht aus, um die nötige Anzahl an Mail-Verläufen, Rechnungen, Chat-Fenster, Kalender, To-Do-Listen, Ordner gleichzeitig sichtbar zu haben. Mit XR- zieh ich diese Fenster aus dem Monitor raus und positionier sie an meine Cubicle Wand, auf meinen Schreibtisch, ich habe unbegrenzten Platz um Dokumente zu positionieren.
    * Im Bus/Zug/etc. bin ich nicht mehr auf den Laptop-Bildschirm beschränkt sondern habe beliebig viel Darstellungsraum, die mein Sitznachbar übrigens nicht mehr sehen kann. Egal, ob ich arbeite und viele Fenster brauche oder einen Kinofilm auf einer XXXL-Leinwand schauen möchte
    * Von dem Führen von Gesprächen mit Kollegen bei einem Spaziergang hält mich häufig das fehlende Display ab, ein Smartphone ist für viele Slides einfach unpraktisch klein. Zukünftig werden uns „schwebende“ Dokumente begleiten
    * Kommunikation: Webcam-Meetings, mit ihren vielen kleinen Briefmarken-großen Köpfchen können nur schlecht einen vor-Ort Treffen ersetzen, wie könnte ich auch durch einen Blickkontakt ersetzen. Mit Eye-, Face- und Bodytracking kann auch bei Hybrid-Meetings die Avatar physisch abwesender Personen in das vor-Ort Gespräch holen, mit allen Vorteilen, wie Augenkontakt, Gestik, akustische Lokalisierung. In VR-Spielen kann man schon heute den Gewinn an Präsenz erfahren, den man zukünftig bei realen Personen haben wird.
    Die digitale Sphäre, um nicht das Wort „Cyberspace“ zu benutzen, ist ein dermaßen großer Teil unserer Realität geworden – aber in Kontakt treten wir mit ihr mittels Bierdeckel-kleiner Devices. Wer hätte gedacht, dass wir im alltäglichen Leben uns mit einem um 90° geknickten Genick und quasi-autistischem Blick im Wesentlichen auf unsere beiden Daumen als Eingabemedium fokussieren? Das kann doch nicht das Ende der Cyber-Mensch-Kommunikation sein. Mit XR-Technologien erschließen wir uns in drei Dimensionen mit unserem menschlichen Körper die digitale Sphäre.
    Und dafür sind zunächst auch keine eigenen Apps notwendig, es reicht, wenn Apple ein Betriebssystem entwickelt hat, dass Fenster aus iPhones und MacBooks in die 3D-XR-Welt positionieren kann. Den Kalender beispielsweise an den Kühlschrank, die Dia-Show in drei Rahmen an die Wand. Dokumente auf meinen Schreibtisch, etc.
    Tims Einwand, dass ich doch nicht dauerhaft optisch von der Umwelt getrennt sein möchte, den werden viele bringen, deswegen werden wir erst einen größeren Durchbruch sehen, wenn in eineigen Jahren die AR-Brille auf den Markt kommen wird, die den optischen Lichtweg nicht unterbricht und ersetzt sondern wirklich nur anreichert.
    Die Frage ist nur, ist die Technik weit genug und das zu einem bezahlbaren Preis? Akku, Leistung, Gewicht? Für einen vollen Tageseinsatz wird die Brille doch per Kabel an ein Akku und/oder iPhone angeschlossen sein müssen.
    Oder ist Apple, wie einstmals mit dem Newton, seiner Zeit und der Technik zu sehr voraus?
    Bislang schreib ich übrigens nur von den uns bekannten Apps. Was an Anwendungen alles möglich werden wird, was sich mit den bisherigen Pancake-Displays nicht realisierbar war… Da kommt noch einiges!

    • Hallo Zusammen, Hallo Andre, ich halte den Zweck der verbesserten Kommunikation für sehr wichtig. Als Vertriebsmensch, der viel unterwegs ist und gerade zu Zeiten von Corona, viel in Meetings vor dem Rechner gesessen hat, würde ich mir so ein Ding wünschen. Hatte da so das Bild des Konferenztisches bei den Kingsmen vorm inneren Auge. Nicht nur starr geradeaus starren (und eigentlich nur das eigene Bild anglotzen (gut, kann man abstellen)) sondern den Körper/ den Kopf bewegen, mittels Körperhaltung klar machen, an wen man sich akut im Gespräch wendet, das wäre was. Und das Gute (für Apple) ist: auch wenn das Ding 3,5K kostet, erstens ist da eine Firma hinter, die gleich 10 davon kaufen kann und zweitens rechnet sich das über nicht anfallende Reisenkosten (für die Firma) sowieso. Wenn das alles gut funktioniert natürlich.

  15. Beim nachträglichen Lesen meines letzten Posts glaube ich, dass meine These nicht deutlich genug hervor tritt:
    XR wird perspektivisch alle anderen Displays (Monitore, Laptop Displays, iPad, iPhone, Watch) überflüssig machen – nicht nur ersetzen, sondern den Zugang zu optischen Informationen auf einen ganz neuen Level heben.

    • Wir wissen seit gestern, dass es wohl so sein wird. Mich überzeugt aber nicht, dass die Anwendungen mit Hilfe einer solchen VR.Brille realisiert werden können. Ein Beispiel möchte ich anführen, warum ich glaube, dass die Brille nicht funktioniert. Apple legte bisher großen Wert auf ein Entertainment-Erlebnis für die ganze Familie. Wenn ich also mit meiner Familie Disney erleben will, muss ich 5 Brillen kaufen und sehen dann alles den gleichen Film oder verschiedene? Sharing von Brillen? Ich sehe bildlich vor mir, wie Jobs die Brille in den Papierkorb seines Büros wirft und das Entwicklerteam feuert.

  16. Hallo Tim,
    Ich bin immernoch so gespannt was du zu StarLink sagen wolltest in der letzten Folge. Wirst du das vllt in der nächsten Episode ansprechen?

  17. Ein bissl weniger nerdlastiger Zugang zum Thema AI im sehr empfehlenswerten Interview mit Manuela Lenzen beim Piratensender Powerplay.
    Zitat: „Ganz viel Datenverarbeitung muss auch wirklich im menschlichen Kopf passieren damit man sowas wie Erkenntnis hat.“

  18. Natürlich werden Leute diese Brillen tragen. Alle werden diese Brillen tragen, Apple original oder die Android(Samsung/China-Version. Die Leute nutzen auch die Apple Uhr, und die ist nur ein erstaunlich hässlicher Fitness-Tracker. Einmal U-Bahn Fahren und man erkennt: jeder starrt schon heute dauernd auf seinen kleinen Bildschirm. Stattdessen einfach geradeaus zu kucken ist einfach komfortabel. Dazu kommen AR-Anwendungen wie Navigation, Pokemon-Fangen oder Infolayer (zeig mir alle Zusatzstoffe von diesem Produkt, Wie heißt nochmal diese Person da). Oder Übersetzung: im Ausland alle Schilder und Beschriftungen sofort übersetzt kriegen. Das Problem sind Akkulaufzeit, optische Korrektur und Preis. Der Preis wird sinken wenn es ein Massenprodukt wird.

  19. Bin nicht so zuversichtlich, dass ChatGPT die Entwicklung von Software massiv erleichtern wird. Leider.

    Ralfs Beispiel ist zwar sehr beeindruckend, aber auch sehr trivial. Für die Mastodon-Wall gibt es klare Vorbilder, foe ChatGPT nutzen kann.

    Meine Erfahrung ist: Sobald man etwas fragt, dass niemand bereits zuvor so (oder so ähnlich) auf StackOverflow oder Github gepostet hat, kommt ChatGPT ins Trudeln und halluziniert viel Unfug herbei.

    Bisher kann man es gut als Recherchetool und Refactoring-Assistent nutzen. Oder um simple Monkeywork auszulagern.. Ob es wirklich komplexe Programmieraufgaben erledigen kann und ob es dabei schneller ist, bleibt nich abzuwarten.

    Will ja gar nicht prinzipiell ausschließen, dass das noch kommt. Wäre ja auch schön, wenn man nicht mehr programmieren muss. Aber ich hab so meine Zweifel. Bei AI war es immer so, dass man einen großen Sprung gemacht hat und dann aber auch wieder lange Durststrecken dazwischen waren.

    Time will tell…

  20. zu der VR Brille:
    So wie Ronny das gesagt hat, das ist ein Technikträger so wie du erst mal einen Satelliten hin schickst zum Planeten, der die Technik ausprobiert. Und anschließend schickst du die wirklichen Satelliten hin, die Technik nutzen, weil sie eben ausgereift ist.
    Ein Produkt was Profis ausprobieren, bei denen das Geld nicht eine Rolle spielt. Wie viele Ärzte ,wie viel Ingenieure wie viel Militär gibt es,die sowas kaufen? Selbst es nur 10 % der Profis sind. Immer noch ein Riesen Geschäft plus die ganzen YouTubeer.
    Sind ne Menge Leute die einfach nur um zu probieren wollen, und dennen es nicht ums Geld geht ! Das ist genauso wie mit dem Mac Pro, der ist auch extreme Nische und trotzdem werden die Dinger gekauft für 50.000 € . Wer bitte braucht eine Rechnung 50.000 € würde man denken!
    Es gibt eben doch jede Menge Firmen,Spiele Entwickler und Film Firmen die da ganz locker ihr Geld mitmachen können .

    Und dann im zweiten Schritt kommt ne Brille ,die ist vielleicht um 1000 € und ist dann für den großen Markt. In dem Jahr hat sich die Technologie dann soweit weiter entwickelt, dass sie Batterie kleiner sein kann. Irgendwo im Gerät sein kann die Leistung des Gerätes sehr viel höher und die Bildschirme sind alle noch mal Zacken besser.

    Und dann ist der Markt ganz klar Entertainment! So wie Roddie gerade gesagt hat 80 % Spiele 10 % Movie und Sport ,10% Profis.
    Der VR Markt ist nicht so klein wie du denkst Tim 216 Millionen User
    https://www.mordorintelligence.com/de/industry-reports/virtual-reality-in-gaming-market

    • Ja, das werde ich demnächst mal machen. Ich war da für das Mastowall-Experiment zurückhaltend, da
      1) Copilot m.W. nach auf Codex basiert was wiederum als Basis GPT3 im Hintergrund hat. Meine These wäre, dass das zusätzliche Training auf Code nicht den generell dramatischen Vorsprung von GPT 4 wett machen kann – aber das wäre mal sauber zu testen
      2) Ich wollte die AI ganz bewusst aus der IDE (nutze VSC) raus halten, um so „untechnisch“ wie möglich zu agieren, nur mit copy&paste. Diese Limitierung ist natürlich in der Sache fragwürdig, aber es ging mir eben erst mal um den grundsätzlichen Punkt. Ich probiere vielleicht für mein nächstes Projekt (Hashtag-Harmonisierung in Mastodon) mal ein Hybrid-Modell aus – grundsätzlicher Aufbau ich ChatGPT4, Verfeinerung mit Copilot.

  21. Also ich bin so ein bisschen hin- und hergerissen, was so die Aussagen in der Sendung zu ChatGPT betrifft. Keine Frage, ChatGPT ist irrsinnig beeindruckend und ich benutze es mittlerweile sehr zur Unterstützung beim Entwickeln. Ich stelle aber auch regelmäßig fest, dass es gerade bei systematischen Aufgaben die ein bisschen ungewöhnlicher sind, scheitert. Die Mastowall ist vermutlich ein Beispiel bei dem ChatGPT auf sehr viel ähnlichem aufbauen kann. Bei etwas komplizierteren Parsern scheitert es aber gnadenlos.

    Damit will ich nicht sagen, dass das nicht auch noch kommen wird. Warum nicht? Unser Gehirn ist ein physikalisches Gebilde – sollte man auch simulieren können. Allerdings bin ich bei dem aktuellen Hype noch etwas vorsichtig.

    Einen wichtigen Punkt habt ihr nämlich ausgelassen: Der Erfolg von ChatGPT war eben nicht nur „mehr Bums“, sondern es war eben durchaus die Architektur des neuronalen Netzes. Interessanterweise war ja da der Durchbruch, dass man Dinge stark vereinfacht hat und damit trotzdem zu besseren Ergebnissen gekommen ist.

    Auch hier muss ich sagen: Wen wundert’s. Unsere DNA ist knapp 1.5GB groß. Davon ist ein erheblicher Teil Verdauung, Sex und die DNA irgendwelcher Viren, die sich da über Jahrmillionen eingeschlichen haben. Die Baupläne für unser Gehirn *können* also gar nicht so irre komplex sein. Wenn man bedenkt, dass man ein menschliches Gehirn in 12 Jahren mit 25 Watt Leistungsaufnahme schon zu einem passablen Programmierer rantrainieren kann, gehe ich sogar davon aus, dass wir da noch mehr Dinge auf Marvin-Niveau sehen werden. Allerdings muss die Forschung da sicher auch noch die ein oder andere Entdeckung machen und das ist etwas, das halt nicht vorhersehbar ist.

    Dazu auch noch mal der umfassende Post von Stephen Wolfram zur Funktionsweise von ChatGPT, den ihr aber vllt. auch schon kennt:

    https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/

  22. Kann es sein, dass dort von jemanden im Raum mehrfach Benachrichtigungstöne aufgenommen wurden? Hab beim Hören ständig mein Handy gecheckt.

  23. zum Thema VR: es wird die Immersivität übersehen, es ist ein ganz anderes in einer Welt zu stehen als sie durch einen Monitor zu sehen.

    VR währe auch eine Lösung für Brillenträger – ich bin selbst Gleitsichtgeschädigt – in der Brille ist alles scharf, kein Brille auf/absetzen nötig ;-) (Beispiel wurde ja angesprochen)

    Übrigens kann man sich für VR-Brillen Einsätze vom Optiker machen, so dass man seine Brille nicht darunter tragen muss.

    Ich habe in den letzten Jahren eine VR-Welt für die Ausbildung entwickelt – mit Webtechnologie (saz – ProMech-I). Da ist ein großer Markt/Zukunft. Da viele Berufe bei der Ausbildung nicht immer die Maschinen vorhalten können, oder Arbeitsprozessen unterbrechen können. Vor allem die junge Zielgruppe geht da drin voll auf.
    Ee gibt auch System an gemeinsam in einer Welt interagieren kann.

    Interessant fand ich Tims Gegenfeuer – ich halte die apple airpods im Ohr auch albern – aber man gewöhnt sich ja an alles :)

    Die apple Brille halte ich für zu überteuert, gerade weil es viel Konkurenz gibt (Quest, Pico). Spannend wird die Web-XR-Unterstützung sein.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.