Douglas Adams — Machine Learning — OpenAI — Programmieren mit ChatGPT — XR-Produkt von Apple
Auch heute legen wir noch mal einen großen Schwerpunkt auf die AI-Bewegung und begrüßen dazu Oliver Zeigermann, der sich seit Jahren auf Machine Learning konzentriert. Wir blicken auf Entwicklungsgeschichte der AI-Technologien zurück und fabulieren über die Machbarkeit einer Open Source AI. Ralf stellt dann auch noch seinen Code vor, den er zu 100% hat von ChatGPT schreiben lassen und grübeln, wie lange es Programmierer noch braucht (Hint: noch lange). Dazu schwelgen wir in Erinnerungen an Douglas Adams und betrauern das mit ihm so früh verloren gegangene Visionspotential.
Dauer: 3:46:51
Für diese Episode von Freak Show liegt auch ein vollständiges Transkript mit Zeitmarken und Sprecheridentifikation vor.
Bitte beachten: das Transkript wurde automatisiert erzeugt und wurde nicht nachträglich gegengelesen oder korrigiert. Dieser Prozess ist nicht sonderlich genau und das Ergebnis enthält daher mit Sicherheit eine Reihe von Fehlern. Im Zweifel gilt immer das in der Sendung aufgezeichnete gesprochene Wort. Formate: HTML, WEBVTT.
Transkript
Shownotes
-
-
-
de.wikipedia.org Compilerbau
-
-
Kolophon KOL018 Machine Learning
-
CRE: Technik, Kultur, Gesellschaft CRE208 Neuronale Netze
-
-
2023.amaze-berlin.de A MAZE. / Berlin 2023 - 12th International Games and Playful Media Festival
-
huggingface.co OpenAssistant/oasst-sft-6-llama-30b-xor · Hugging Face
-
-
-
-
openstreetmap.org OpenStreetMap
-
-
-
-
-
de.wikipedia.org Der elektrische Mönch – Wikipedia
-
de.wikipedia.org Der lange dunkle Fünfuhrtee der Seele – Wikipedia
-
Dirk Gently's Holistic Wiki Webb's machine | Dirk Gently's Holistic Wiki | Fandom
-
-
-
de.wikipedia.org TensorFlow
-
-
playground.tensorflow.org Tensorflow — Neural Network Playground
-
-
huggingface.co Tasks - Hugging Face
-
-
-
-
-
HedgeDoc - Collaborative markdown notes Erfahrungsbericht: Softwareentwicklung mit ChatGPT4 - die Mastowall - HedgeDoc
-
-
rstockm.github.io Mastowall 1.1
-
-
-
-
Apple Support Kaufen und Laden von Apps auf dem Apple TV
-
tapbots.com Ivory for iOS
-
skybridge.fly.dev Sky Bridge
-
1+
zum thema was apple mit xr will:
das einzige was mir einfällt und was zu dem price-tag von 3,5k passt ist unendlicher screen estate für professionals. mit einer vr-brille wäre ein randloses infinity-display möglich. man hätte in der breite und der tiefe unendlich platz und auflösung. will ich was genauer anschauen neige ich meinen kopf nach vorne und sehe nicht größere pixel sondern mehr detail. will ich überblick haben lehne ich mich zurück und schau mir das vista an. ich benutze aktuell ein 27 zoll qhd display. wenn ich grade draufschaue wird so ca. 60% des sichtbaren bereichs benutzt, größere displays machen mehr, aber mit einer vr-brille würde man sich komplett von der fragestellung lösen welche displaygröße/auflösung für mich passt. das würde aber voraussetzen dass die brille mit sehr guten displays konkurrieren kann. mindestens 4k bei 120hz als untergrenze und sehr guter farbdarstellung. für den alltag ist das erstmal nichts, aber dass es für ein infinity-gdisplay andere ui-paradigmen braucht und damit ein komplett neues os leuchtet mir ein.
Ich bin ein riesiger Fan der Freak Show und höre die neuen Folge sofort nach Veröffentlichung mit viel Vergnügen!!
Die heutige Folge fand ich ehrlich gesagt mit den ersten 2:30h ausschließlich zu AI und ChatGPT stark unausgewogen. Die eigentlichen Grundlagen zu Model-Training und -Hosting wurden sehr oberflächlich und mit wenig tiefgreifendem Wissen besprochen („Mehr Bums“).
Der Hype ist ja nachvollziehbar, aber beim live prompting und Klickanweisungen sind mir dann beim Zuhören die Füße eingeschlafen. Wenn ich Tim nicht schon seit 15 Jahren hören würde, hätte ich gedacht, dass OpenAI euch sponsored.
Freue mich schon auf die nächste Folge :)
Zum XR-Produkt: Ich denke Tims Erwartungen/Ansprüche sind da etwas zu hoch. Es war doch bei iPad und Watch schon ähnlich: Was wurde nicht alles diskutiert, welche geniale Idee Apple da jetzt hätte, welche tolle Story sie uns erzählen würden… und dann war es beim iPad einfach „auf dem Sofa sitzen und konsumieren“ und bei der Watch Fitness. Nichts überraschendes Neues, nur eben von Apple. Es wird erst mal teuer sein und es wird erst mal nicht viel gehen, aber das ist auch nicht so wichtig, denn es geht jetzt darum dabei zu sein, diese Plattform zu starten. In zehn Jahren wird sich auszahlen was da jetzt vorbereitet wird. Naja, oder es floppt, weil Apple sich da wirklich verrannt hat und niemand sowas braucht, aber das sie sowas jetzt machen finde ich sehr nachvollziehbar, denn das Potenzial scheint mir doch riesig.
B4yern Münch3n hat keine Fans, die haben Kunden.
Kurze Ergänzung zu Dirk Gentlys: Es gibt eine von BBC America und Netflix zusammen produzierte Serie mit 2 Staffeln die mir (ohne die Bücher gelesen zu haben bis jetzt) auch schon viel Freude bereitet hat.
Ein Use-Case für xrOS, den ihr nicht diskutiert habt: Das Ding könnte ein interessanter MacBook/iPad-Ersatz sein. Du hast damit immer ein großes Display mit, ohne Platz zu verbrauchen oder ein sperriges Gerät mitschleppen zu müssen. Keine komische Körperhaltung mehr. Das würde auch den Preis rechtfertigen und in einer echten Arbeitssituation stört dein blockiertes Sichtfeld nicht (bzw ist vllt sogar wünschenswert). Aber sie müssen halt einen guten Maus/Tastaturersatz erfinden.
An xR als iPhone-Killet glaube ich dagegen auch nicht. Da gehe ich mit Tim mit, dass xR viel zu invasiv ist.
Wofür würde ich Apple 3.500€ in den Rachen werfen?
Für ein gut ausgestattetes MacBook (Pro), für einen iMac oder MacPro.
Was, wenn „die Brille“ ein MacBook, einen iMac, MacMini oder einen MacPro (komplett) „ersetzen“ kann?
Ich sitze vor einem riesigen, virtuellen Bildschirm, über die Brille wird eine virtuelle Tastatur eingeblendet, ein virtuelles Touchpad oder eine Maus, die auf jede beliebige Oberfläche „gelegt“ werden kann, wenn ich sie benötige, egal wo ich mich gerade befinde. Voraussetzung ist natürlich ein zuverlässiges Finger-Tracking, nicht nur Hand-Tracking (angeblich bereits technisch realisiert). Alle meine Apps die ich von meinen Macs kenne, laufen „auf der Brille“, eine Art MacOS on steroids, vielleicht sogar in 3D, verschiedene Bildebenen, Fenster können nach vorne geholt oder nach hinten geschoben werden, mit meinen Händen kann ich die Tastatur, das Touchpad, die Fenster und Widgets physisch im (virtuellen) Raum verschieben. „Spaces“ schaue ich mir an, indem ich den Kopf nach rechts oder links drehe und mit den Händen dann „in die Mitte“ verschiebe, zentriere, etc. Demos von entsprechenden „Betriebssystemen“ gab es schon vor vielen Jahren, allerdings eben auf dem Monitor und nicht über eine Brille. Das Apple-Sillicon liefert vermutlich genug Performance um eine solche Brille zu powern, CPU, GPU, Neural Engines, etc. Per „Handoff“ kann ich auf dem iPad oder Mac weiterarbeiten, wenn ich keinen Bock mehr auf Brille habe und umgekehrt. Ein kompletter, (weitestgehend) vollwertiger Rechner IN einer Brille, über den ich AUCH Entertainment Apps nutzen kann (Spiele, Movies, TV, etc.), DAFÜR würde ich 3.500€ ausgeben! Warum haben einige Apple-Mitarbeiter Probleme damit eine „halbgare“ Brille auf den Markt zu werfen? Vermutlich reicht die Leistungsfähigkeit und/oder die Leistungsaufnahme aktuell noch nicht wirklich für ein „gutes“ Apple-Erlebnis aus. Vielleicht müsste man noch ein, zwei, drei Prozessorgenerationen warten, Spekulation…. Aber in diesem Szenario wären vom Tag 1 an praktisch ALLE derzeit auf MacOS laufenden Apps für die Brille verfügbar, was für eine Value Proposition!!! Dazu die iOS-Welt, Widgets, etc. Natürlich könnten/müssten Developer ihre Apps dann entsprechend an die neuen Möglichkeiten anpassen…aber das war ja schon immer so…
„Wenn es mehr Bums hat, wird es gekauft.“ xD
Zur XR-Brille:
Für 3,5 k€ wird das wohl kein Endkundenprodukt werden. Ich könnte mir vorstellen, dass sie es primär für Bildungseinrichtungen (Schulen, Universitäten) positionieren. Das passt zum Apple-Image und sie können damit die Kunden von morgen an ihre Produkte heranführen.
Glaube ich überhaupt nicht. Schau dir die iPad/Chromebook-Deals in USA mit den Schulen an. Dein angesetzter Preis für die Brille ist eine Menge Geld, dafür dass es dafür noch keine fertigen Materialien gibt. Das ist auch ein eher übersichtlicher Markt, der nicht ständig neu investiert und lange Ausschreibungen etc. hat.
Nicht ganz ernst gemeint: Vielleicht ist es ein Trick von Apple. Sie setzen ein Gerücht in die Welt, dass eine hochpreisige kompromisslose VR/AR-Brille angekündigt. Anschließend grasen sie das Netz nach tauglichen Geschäftsideen ab.
Die Militärs dieser Welt wären grundsätzlich sicherlich Abnehmer hochwertiger Geräte für Simulatortraining und semi-autonome Drohnen/Roboter.
Vom Bauchgefühl her, würde ich den Einsatzzweck aber eher Richtung Home- bzw. Tele-Arbeit verorten, da dies aufgrund von Covid sehr stark vorangetrieben und auch geblieben ist. Eventuell besinnt sich Apple auf Stärken der Vergangenheit und hat ein System für virtuelle Filmproduktion entwickelt. Die Kunden in dem Segment geben auch ein paar tausend Dollar für Kameras und Motion-Capture-Suits aus. Da bekommt man eine hochpreisige VR/AR-Brille sicher verkauft, wenn die Qualitat stimmt. Zudem braucht man dafür such keine riesigen Mengen. Dafür bringt es zusätzlich Prestige.
Zu Sam Altman: Das Auftreten vor dem Congress mag vielleicht etwas anders gewesen sein als bei Zuckerberg, aber auch Altman hat ein Crypto Startup, das Wallets auf Basis von Biometrie (Iris-Scan) erstellen will und gerade Series C Funding von einer sehr sympatischen Truppe (incuding a16z crypto, Bain Capital Crypto and Distributed Global) erhalten hat.
Biometrie und Geld, was kann da schon schiefgehen oO
Was, wenn Apple genau die von Tim im Podcast erwähnten no goes bei Brillen (Brille aufsetzen, wieder absetzen, …) gelöst hat: eine Brille die alle Fehlsichtigkeiten (sofern vorhanden) digital in Echtzeit fixt? Ist das noch zu sehr SciFi? Um kein Glasshole zu sein dürften die Kameras/Sensoren keine Bilder/Videos nach draußen lassen – Kommunikation mit Apps nur über APIs?
gibts irgendwo infos zu diesem grandiosen bonustrack?
Ja, in den Shownotes: letzter Link
Re „Half life Alyx nur VR“, es gibt ein mod das Alyx auch mit normalem Monitor verfügbar macht: https://github.com/r57zone/Half-Life-Alyx-novr .
Ich meine, die Brille macht nur Sinn, wenn es sich bei ihr um ein medizinisches Produkt handelt plus VR. Stellt euch vor, dass keine unterschiedlichen Gläser vom Optiker mehr notwendig wären, sondern sich diese der unterschiedlichen Sehstärke automatisch anpassten. Apple würde die ganze Branche revolutionieren, indem Brillengläser sich selbst einstellen. Oben drauf gibt es das von Euch in der Sendung besprochenen VR Gelöte, welches eigentlich nur eine Nebenschauplatz darstellt. Der Preis wäre in diesem Fall gerechtfertigt, weil eine normal Gleitsichtbrille mehr als 1000 Euro kosten kann und mit Veränderung der Sehstärke kommen Kosten hinzu. Es wird bunte Brillengestelle geben wie es Armbänder für die Apple Watch gibt.
Ich hab mal mit ChatGPT (3.5) herumgespielt und geschaut, ob man da nicht mit Ascii-Art Bilder rauszaubern kann. Stellt sich raus: Es geht. Allerdings sehr, sehr schlecht.
Was immer man abfragt, es ist viel Quatsch dabei und wenn mal etwas erkennbar ist, dann sind es – Überrraschung – Penisse. Womit das System halt vermutlich gefüttert wurde.
Hallo,
weil die Machine Learning-Beschreibung etwas oberflächlich war und Tim auf seine Frage zum Unterschied zwischen herkömmlichen neuronalen Netzen und Deep Learning keine Antwort erhielt, hier ein Versuch einer Erklärung:
Im klassischen Maschine Learning hat man sehr viele unterschiedliche Verfahren eingesetzt, wie z.B. Support Vector Machines, Decision Trees, oder K-Nearest Neigbor-Verfahren – und eben auch neuronale Netze. Herkömmliche neuronale Netze haben drei Layer mit Neuronen, nämlich eine Input Layer, einen Hidden Layer und einen Output-Layer. Beim Training musste man früher die Daten per Hand vorverarbeiten und bereinigen, und dann die Merkmale manuell extrahieren. Der Vorgang nennt sich Feature Extraction. Und dann hat man die vorverarbeiteten Features in das Netz zum Training gegeben (der Input Layer hatte dann so viele Inputs wie es Merkmale/Features gab). Dann musste man gucken, welche Merkmale auf die Modell-Performance (Genauigkeit und Fehler) welchen Einfluss haben und die Merkmale mit hohem Einfluss hat man dann weiter genutzt.
Beim Deep Learning wird die Feature Extraction automatisch vom Netz übernommen. Die tiefen neuronalen Netze haben einen Input Layer, beliebig viele Hidden Layer und einen Output Layer. Die Feature Extraction läuft dann über die Hidden Layer, wobei man nicht steuern kann, welche Features in welchem Layer prozessiert werden. Das macht das Netz von selbst. Beispielsweise bei der Bildanalyse mit Deep Learning lernt ein Hidden Layer die Farbverteilung im Bild, ein weiterer Hidden Layer lernt die Kontraste, ein weiterer Kanten, ein weiterer Kurven, und ein weiterer Hidden Layer dann die higher-order Repräsentation daraus (z.B. die Katze). Wie viele Hidden Layers man verwendet, muss man dann halt ausprobieren. Es geht also im Vergleich zum Shallow Learning alles einfach nur automatisch. Dazu kommt dann noch die höhere Rechenpower.
Ich hoffe, ich konnte damit etwas zum Unterschied zwischen Shallow und Deep Learning beitragen.
Übrigens noch ein Hinweis zur Innovation von ChatGPT: Es gab früher sogenannte Recurrent Neural Networks RNN. Die konnten im Vergleich zu normalen Netzen auch Zeitreihen verarbeiten. Also Datensätze, in denen die Daten eine zeitliche Abhängigkeit haben. Damit haben sich RNNs hervorragend für die Sprachverarbeitung geeignet. Die Nachfolgemodelle der RNNs waren dann die LLMs, die deutlich weiter in die Vergangenheit gucken konnten als die RNNs. Bei ChatGPT gibt es mehrere neuronale Netze, die da zusammenarbeiten. Damit wurde ein neues Konzept, des sogenannte Attention Modelling, eingeführt, bei dem ein assoziiertes neuronales Netz sich im Datenraum merkt, worum es gerade geht und somit den Verlauf der Konversation mit abbilden kann.
Toller Podcast – peace!
Erich
Thema XR: Diesmal hält es mich nicht auf dem Sitz, weil meiner Meinung nach niemand vor lauter Suche nach der einen „Killer-App“-Pflanze den Wald sieht, der um uns wächst. Die Vision ist, dass eine XR-Brille (natürlich mit Korrekturgläsern, falls benötigt) generell die Rahme von Displays sprengt und letzter überflüssig machen wird.
Bei Gesprächen in den letzten Jahren habe ich die Frage „Was ist die Killer-App“ auf den Kopf gestellt: „Nennen mir auch nur eine App, die durch XR nicht disruptiv besser wird!“ und damit das Bild im Bekanntenkreis vermitteln können. Ich gehe mal ein paar wenige Beispiele durch, die dabei aufkamen:
* Desktop: Momentan reichen mir meine drei Monitore bei weitem nicht aus, um die nötige Anzahl an Mail-Verläufen, Rechnungen, Chat-Fenster, Kalender, To-Do-Listen, Ordner gleichzeitig sichtbar zu haben. Mit XR- zieh ich diese Fenster aus dem Monitor raus und positionier sie an meine Cubicle Wand, auf meinen Schreibtisch, ich habe unbegrenzten Platz um Dokumente zu positionieren.
* Im Bus/Zug/etc. bin ich nicht mehr auf den Laptop-Bildschirm beschränkt sondern habe beliebig viel Darstellungsraum, die mein Sitznachbar übrigens nicht mehr sehen kann. Egal, ob ich arbeite und viele Fenster brauche oder einen Kinofilm auf einer XXXL-Leinwand schauen möchte
* Von dem Führen von Gesprächen mit Kollegen bei einem Spaziergang hält mich häufig das fehlende Display ab, ein Smartphone ist für viele Slides einfach unpraktisch klein. Zukünftig werden uns „schwebende“ Dokumente begleiten
* Kommunikation: Webcam-Meetings, mit ihren vielen kleinen Briefmarken-großen Köpfchen können nur schlecht einen vor-Ort Treffen ersetzen, wie könnte ich auch durch einen Blickkontakt ersetzen. Mit Eye-, Face- und Bodytracking kann auch bei Hybrid-Meetings die Avatar physisch abwesender Personen in das vor-Ort Gespräch holen, mit allen Vorteilen, wie Augenkontakt, Gestik, akustische Lokalisierung. In VR-Spielen kann man schon heute den Gewinn an Präsenz erfahren, den man zukünftig bei realen Personen haben wird.
Die digitale Sphäre, um nicht das Wort „Cyberspace“ zu benutzen, ist ein dermaßen großer Teil unserer Realität geworden – aber in Kontakt treten wir mit ihr mittels Bierdeckel-kleiner Devices. Wer hätte gedacht, dass wir im alltäglichen Leben uns mit einem um 90° geknickten Genick und quasi-autistischem Blick im Wesentlichen auf unsere beiden Daumen als Eingabemedium fokussieren? Das kann doch nicht das Ende der Cyber-Mensch-Kommunikation sein. Mit XR-Technologien erschließen wir uns in drei Dimensionen mit unserem menschlichen Körper die digitale Sphäre.
Und dafür sind zunächst auch keine eigenen Apps notwendig, es reicht, wenn Apple ein Betriebssystem entwickelt hat, dass Fenster aus iPhones und MacBooks in die 3D-XR-Welt positionieren kann. Den Kalender beispielsweise an den Kühlschrank, die Dia-Show in drei Rahmen an die Wand. Dokumente auf meinen Schreibtisch, etc.
Tims Einwand, dass ich doch nicht dauerhaft optisch von der Umwelt getrennt sein möchte, den werden viele bringen, deswegen werden wir erst einen größeren Durchbruch sehen, wenn in eineigen Jahren die AR-Brille auf den Markt kommen wird, die den optischen Lichtweg nicht unterbricht und ersetzt sondern wirklich nur anreichert.
Die Frage ist nur, ist die Technik weit genug und das zu einem bezahlbaren Preis? Akku, Leistung, Gewicht? Für einen vollen Tageseinsatz wird die Brille doch per Kabel an ein Akku und/oder iPhone angeschlossen sein müssen.
Oder ist Apple, wie einstmals mit dem Newton, seiner Zeit und der Technik zu sehr voraus?
Bislang schreib ich übrigens nur von den uns bekannten Apps. Was an Anwendungen alles möglich werden wird, was sich mit den bisherigen Pancake-Displays nicht realisierbar war… Da kommt noch einiges!
Hallo Zusammen, Hallo Andre, ich halte den Zweck der verbesserten Kommunikation für sehr wichtig. Als Vertriebsmensch, der viel unterwegs ist und gerade zu Zeiten von Corona, viel in Meetings vor dem Rechner gesessen hat, würde ich mir so ein Ding wünschen. Hatte da so das Bild des Konferenztisches bei den Kingsmen vorm inneren Auge. Nicht nur starr geradeaus starren (und eigentlich nur das eigene Bild anglotzen (gut, kann man abstellen)) sondern den Körper/ den Kopf bewegen, mittels Körperhaltung klar machen, an wen man sich akut im Gespräch wendet, das wäre was. Und das Gute (für Apple) ist: auch wenn das Ding 3,5K kostet, erstens ist da eine Firma hinter, die gleich 10 davon kaufen kann und zweitens rechnet sich das über nicht anfallende Reisenkosten (für die Firma) sowieso. Wenn das alles gut funktioniert natürlich.
Beim nachträglichen Lesen meines letzten Posts glaube ich, dass meine These nicht deutlich genug hervor tritt:
XR wird perspektivisch alle anderen Displays (Monitore, Laptop Displays, iPad, iPhone, Watch) überflüssig machen – nicht nur ersetzen, sondern den Zugang zu optischen Informationen auf einen ganz neuen Level heben.
Wir wissen seit gestern, dass es wohl so sein wird. Mich überzeugt aber nicht, dass die Anwendungen mit Hilfe einer solchen VR.Brille realisiert werden können. Ein Beispiel möchte ich anführen, warum ich glaube, dass die Brille nicht funktioniert. Apple legte bisher großen Wert auf ein Entertainment-Erlebnis für die ganze Familie. Wenn ich also mit meiner Familie Disney erleben will, muss ich 5 Brillen kaufen und sehen dann alles den gleichen Film oder verschiedene? Sharing von Brillen? Ich sehe bildlich vor mir, wie Jobs die Brille in den Papierkorb seines Büros wirft und das Entwicklerteam feuert.
Hat IBM nicht mal den Markt für Computer auf 5 geschätzt? SCNR
Hallo Tim,
Ich bin immernoch so gespannt was du zu StarLink sagen wolltest in der letzten Folge. Wirst du das vllt in der nächsten Episode ansprechen?
Ja, ich denke dann passt das endlich rein.
Ein bissl weniger nerdlastiger Zugang zum Thema AI im sehr empfehlenswerten Interview mit Manuela Lenzen beim Piratensender Powerplay.
Zitat: „Ganz viel Datenverarbeitung muss auch wirklich im menschlichen Kopf passieren damit man sowas wie Erkenntnis hat.“
Seit der Quest 3 Ankündigung wissen nun auch wieder alle, wer der dritte im XR-Trio ist: Mixed Reality
Natürlich werden Leute diese Brillen tragen. Alle werden diese Brillen tragen, Apple original oder die Android(Samsung/China-Version. Die Leute nutzen auch die Apple Uhr, und die ist nur ein erstaunlich hässlicher Fitness-Tracker. Einmal U-Bahn Fahren und man erkennt: jeder starrt schon heute dauernd auf seinen kleinen Bildschirm. Stattdessen einfach geradeaus zu kucken ist einfach komfortabel. Dazu kommen AR-Anwendungen wie Navigation, Pokemon-Fangen oder Infolayer (zeig mir alle Zusatzstoffe von diesem Produkt, Wie heißt nochmal diese Person da). Oder Übersetzung: im Ausland alle Schilder und Beschriftungen sofort übersetzt kriegen. Das Problem sind Akkulaufzeit, optische Korrektur und Preis. Der Preis wird sinken wenn es ein Massenprodukt wird.
Bin nicht so zuversichtlich, dass ChatGPT die Entwicklung von Software massiv erleichtern wird. Leider.
Ralfs Beispiel ist zwar sehr beeindruckend, aber auch sehr trivial. Für die Mastodon-Wall gibt es klare Vorbilder, foe ChatGPT nutzen kann.
Meine Erfahrung ist: Sobald man etwas fragt, dass niemand bereits zuvor so (oder so ähnlich) auf StackOverflow oder Github gepostet hat, kommt ChatGPT ins Trudeln und halluziniert viel Unfug herbei.
Bisher kann man es gut als Recherchetool und Refactoring-Assistent nutzen. Oder um simple Monkeywork auszulagern.. Ob es wirklich komplexe Programmieraufgaben erledigen kann und ob es dabei schneller ist, bleibt nich abzuwarten.
Will ja gar nicht prinzipiell ausschließen, dass das noch kommt. Wäre ja auch schön, wenn man nicht mehr programmieren muss. Aber ich hab so meine Zweifel. Bei AI war es immer so, dass man einen großen Sprung gemacht hat und dann aber auch wieder lange Durststrecken dazwischen waren.
Time will tell…
Hah- auch als „Wall“ auf TV’s und Präsentationsschirmen? https://www.indiatoday.in/technology/news/story/elon-musk-twitter-is-working-on-a-video-app-for-smart-tvs-to-compete-with-youtube-2392331-2023-06-18
Freakshow fordert: „Mehr Bums!“
…
Nvidia: „Hold my Beer“
https://youtu.be/L6rJA0z2Kag
LG ;-)
Genau ! Ordentlich mehr Bums !
Zum Thema AI hat Egon Schnaps eigentlich alles gesagt. https://www.instagram.com/reel/CrTWN-1AKiC/?igshid=MzRlODBiNWFlZA==
zu der VR Brille:
So wie Ronny das gesagt hat, das ist ein Technikträger so wie du erst mal einen Satelliten hin schickst zum Planeten, der die Technik ausprobiert. Und anschließend schickst du die wirklichen Satelliten hin, die Technik nutzen, weil sie eben ausgereift ist.
Ein Produkt was Profis ausprobieren, bei denen das Geld nicht eine Rolle spielt. Wie viele Ärzte ,wie viel Ingenieure wie viel Militär gibt es,die sowas kaufen? Selbst es nur 10 % der Profis sind. Immer noch ein Riesen Geschäft plus die ganzen YouTubeer.
Sind ne Menge Leute die einfach nur um zu probieren wollen, und dennen es nicht ums Geld geht ! Das ist genauso wie mit dem Mac Pro, der ist auch extreme Nische und trotzdem werden die Dinger gekauft für 50.000 € . Wer bitte braucht eine Rechnung 50.000 € würde man denken!
Es gibt eben doch jede Menge Firmen,Spiele Entwickler und Film Firmen die da ganz locker ihr Geld mitmachen können .
Und dann im zweiten Schritt kommt ne Brille ,die ist vielleicht um 1000 € und ist dann für den großen Markt. In dem Jahr hat sich die Technologie dann soweit weiter entwickelt, dass sie Batterie kleiner sein kann. Irgendwo im Gerät sein kann die Leistung des Gerätes sehr viel höher und die Bildschirme sind alle noch mal Zacken besser.
Und dann ist der Markt ganz klar Entertainment! So wie Roddie gerade gesagt hat 80 % Spiele 10 % Movie und Sport ,10% Profis.
Der VR Markt ist nicht so klein wie du denkst Tim 216 Millionen User
https://www.mordorintelligence.com/de/industry-reports/virtual-reality-in-gaming-market
Jetzt schon erhältlich
https://www.lenovo.com/de/de/thinkrealitya3/
https://developer.apple.com/videos/play/wwdc2023/10034/ Create accessible spatial experiences. Learn how you can make spatial computing apps that work well for everyone. Like all Apple platforms, visionOS is designed for accessibility.
Very impressive demo.
Hey Ralf Stockmann, da du eh auf Github aktiv bist, schau mal dort Github Copilot an. Da läuft auch GPT im Hintergrund.
Ja, das werde ich demnächst mal machen. Ich war da für das Mastowall-Experiment zurückhaltend, da
1) Copilot m.W. nach auf Codex basiert was wiederum als Basis GPT3 im Hintergrund hat. Meine These wäre, dass das zusätzliche Training auf Code nicht den generell dramatischen Vorsprung von GPT 4 wett machen kann – aber das wäre mal sauber zu testen
2) Ich wollte die AI ganz bewusst aus der IDE (nutze VSC) raus halten, um so „untechnisch“ wie möglich zu agieren, nur mit copy&paste. Diese Limitierung ist natürlich in der Sache fragwürdig, aber es ging mir eben erst mal um den grundsätzlichen Punkt. Ich probiere vielleicht für mein nächstes Projekt (Hashtag-Harmonisierung in Mastodon) mal ein Hybrid-Modell aus – grundsätzlicher Aufbau ich ChatGPT4, Verfeinerung mit Copilot.
Mal eine Frage: Wird hukl in einer der nächsten Folgen auch mal wieder an Bord sein oder ist er raus?
hukl macht mit Letty jetzt einen eigenen Podcast: https://glitterbrains.org
danke für den tipp. wusst ich nicht.
Also ich bin so ein bisschen hin- und hergerissen, was so die Aussagen in der Sendung zu ChatGPT betrifft. Keine Frage, ChatGPT ist irrsinnig beeindruckend und ich benutze es mittlerweile sehr zur Unterstützung beim Entwickeln. Ich stelle aber auch regelmäßig fest, dass es gerade bei systematischen Aufgaben die ein bisschen ungewöhnlicher sind, scheitert. Die Mastowall ist vermutlich ein Beispiel bei dem ChatGPT auf sehr viel ähnlichem aufbauen kann. Bei etwas komplizierteren Parsern scheitert es aber gnadenlos.
Damit will ich nicht sagen, dass das nicht auch noch kommen wird. Warum nicht? Unser Gehirn ist ein physikalisches Gebilde – sollte man auch simulieren können. Allerdings bin ich bei dem aktuellen Hype noch etwas vorsichtig.
Einen wichtigen Punkt habt ihr nämlich ausgelassen: Der Erfolg von ChatGPT war eben nicht nur „mehr Bums“, sondern es war eben durchaus die Architektur des neuronalen Netzes. Interessanterweise war ja da der Durchbruch, dass man Dinge stark vereinfacht hat und damit trotzdem zu besseren Ergebnissen gekommen ist.
Auch hier muss ich sagen: Wen wundert’s. Unsere DNA ist knapp 1.5GB groß. Davon ist ein erheblicher Teil Verdauung, Sex und die DNA irgendwelcher Viren, die sich da über Jahrmillionen eingeschlichen haben. Die Baupläne für unser Gehirn *können* also gar nicht so irre komplex sein. Wenn man bedenkt, dass man ein menschliches Gehirn in 12 Jahren mit 25 Watt Leistungsaufnahme schon zu einem passablen Programmierer rantrainieren kann, gehe ich sogar davon aus, dass wir da noch mehr Dinge auf Marvin-Niveau sehen werden. Allerdings muss die Forschung da sicher auch noch die ein oder andere Entdeckung machen und das ist etwas, das halt nicht vorhersehbar ist.
Dazu auch noch mal der umfassende Post von Stephen Wolfram zur Funktionsweise von ChatGPT, den ihr aber vllt. auch schon kennt:
https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/
Kann es sein, dass dort von jemanden im Raum mehrfach Benachrichtigungstöne aufgenommen wurden? Hab beim Hören ständig mein Handy gecheckt.
zum Thema VR: es wird die Immersivität übersehen, es ist ein ganz anderes in einer Welt zu stehen als sie durch einen Monitor zu sehen.
VR währe auch eine Lösung für Brillenträger – ich bin selbst Gleitsichtgeschädigt – in der Brille ist alles scharf, kein Brille auf/absetzen nötig ;-) (Beispiel wurde ja angesprochen)
Übrigens kann man sich für VR-Brillen Einsätze vom Optiker machen, so dass man seine Brille nicht darunter tragen muss.
Ich habe in den letzten Jahren eine VR-Welt für die Ausbildung entwickelt – mit Webtechnologie (saz – ProMech-I). Da ist ein großer Markt/Zukunft. Da viele Berufe bei der Ausbildung nicht immer die Maschinen vorhalten können, oder Arbeitsprozessen unterbrechen können. Vor allem die junge Zielgruppe geht da drin voll auf.
Ee gibt auch System an gemeinsam in einer Welt interagieren kann.
Interessant fand ich Tims Gegenfeuer – ich halte die apple airpods im Ohr auch albern – aber man gewöhnt sich ja an alles :)
Die apple Brille halte ich für zu überteuert, gerade weil es viel Konkurenz gibt (Quest, Pico). Spannend wird die Web-XR-Unterstützung sein.