Star Wars — x-hain - Nicolas Semak — Feedback — Elixir— ChatGPT und die AI-Revolution — LED-Steuerung
Und weiter geht's mit der wilden Fahrt. Heute widmen wir einen dicken Teil der Sendung der schon lange ausstehenden Diskussion rund um die sich schnell breitmachenden "intelligenten" Systeme und wir machen einen Reality Check und klappern dabei auch die popkulturellen AI-Vorlagen der Science Fiction mit ab. Dazu noch mal ganz viel Feedback zu Euren Anmerkungen rund um Social Media und Programmierung und eine ausführliche Einführung in die Steuerung von LED-Modulen. Viel Spaß.
Dauer: 4:03:19
Für diese Episode von Freak Show liegt auch ein vollständiges Transkript mit Zeitmarken und Sprecheridentifikation vor.
Bitte beachten: das Transkript wurde automatisiert erzeugt und wurde nicht nachträglich gegengelesen oder korrigiert. Dieser Prozess ist nicht sonderlich genau und das Ergebnis enthält daher mit Sicherheit eine Reihe von Fehlern. Im Zweifel gilt immer das in der Sendung aufgezeichnete gesprochene Wort. Formate: HTML, WEBVTT.
Transkript
Shownotes
-
YouTube All Your Base Are Belong To Us
-
-
en.wikipedia.org Ewan McGregor
-
-
Seriensprech Obi-Wan Kenobi
-
Seriensprech The Book of Boba Fett
-
-
x-hain.de Willkommen im xHain
-
Exoplanet Exploration: Planets Beyond our Solar System Meet 8 'Star Wars' Planets in Our Own Galaxy
-
x-hain.de Calendar
-
Superelektrik | Podcastproduktion Kommunen | Rainer Langhans – Elementarfragen
-
-
docs.joinmastodon.org WebFinger
-
atproto.com The AT Protocol
-
bsky.app Bluesky Social
-
elixirschool.com Nebenläufigkeit · Elixir School
-
-
-
-
scala-js.org Scala.js
-
-
-
-
-
-
gist.github.com Everything I understand about chatgpt
-
-
Medium On Artifice and Intelligence
-
Ars Technica Man beats machine at Go in human victory over AI
-
Süddeutsche.de Go: Hobbyspieler schlägt "übermenschliche" KI
-
Discourse - Civilized Discussion Discourse is the place to build civilized communities
-
-
stefanw.github.io BibBot – Mit Bibliothekszugang durch die Paywall
-
-
-
-
Stable Diffusion Art What are LoRA models and how to use them in AUTOMATIC1111 - Stable Diffusion Art
-
-
-
-
atp.fm Accidental Tech Podcast
-
-
-
-
-
-
Philoclopedia Kränkungen der Menschheit
-
-
huggingface.co HuggingChat
-
spiegel.de Schweigen - oder gestehen?
-
-
-
-
-
quinled.info Home of the QuinLED LED Controllers - quinled.info
-
install.wled.me Install WLED
-
-
-
-
art-net.org.uk Art-Net
-
-
-
-
YouTube The Chain Fountain
Für intelligente Kritik v.a. am Hype um AI kann ich Gary Marcus empfehlen, er hat auch einen gerade publizierten Podcast „humans vs.machines“ (aber auch Bücher und Talks). Ist v.a. auch historisch interessant, weil er z.B. in der 2. Episode eine frühere Hype-Episode durchgeht mit den damaligen Exponenten (IBM watson). Klar, ist LLM und ChatGTP eine andere Nummer, aber ich fand es trotzdem interessant.
Wo ist Denis?
Ja, wo bist du, Denis? Wir vermissen dich!
Ich habe euch so vermisst .. könnte echt heulen gerade .. danke!!
Zur Frage, wie 2001 der Film und das gleichnamige Buch zueinander stehen, gibt es eine Primärquelle: In Vor- bzw. Nachwort der Bücher schreibt Arthur C. Clarke, dass er gleichzeitig am Buch und dem Filmskript gearbeitet hat. Der größte Unterschied zwischen Buch und Film ist der Planet, den sie ansteuern. Im Buch ist es Saturn, während der Film den Jupiter benennt. Dazu äußert sich Clarke im Vorwort zu 2010 (dem Buch, was nach 2001 folgte, und in dem das Buch auch den Planeten gewechselt hat, den die Mission angesteuert haben soll).
Habe durch diese Folge erst von Nicolas seinem Tod erfahren, das hat mich getroffen. Ruhe er in Frieden und höre er auch weiterhin die Freakshow im Himmel. Ich vermisse die Tanten schon jetzt.
@Tim
Habe gehört du bist jetzt unter die Webdeveloper gegangen
Vielleicht ist das ja etwas, was du interessant findest:
https://github.com/woutdp/live_svelte
ChatGPT hat noch nie eine Frage von mir richtig beantwortet. Da habe ich es mal mit einer Idee von Roddi Probiert. Allerdings habe ich vergessen da rein zu schreiben wie der Podcast heissen soll. Was mir noch nie aufgefallen ist das Konstanze wie im Teleshopping spricht…
„Schreibe den Text für einen Podcast mit Holger Klein und Konstanze Kurz“
„[Einleitungsmusik]
Holger Klein: Hallo und herzlich willkommen zu einer neuen Folge unseres Podcasts! Hier ist Holger Klein und ich freue mich sehr, dass ihr wieder eingeschaltet habt. Heute habe ich eine ganz besondere Gästin dabei, Konstanze Kurz. Sie ist eine renommierte Expertin für digitale Sicherheit und Privatsphäre. Konstanze, schön dass du hier bist!
Konstanze Kurz: Danke, Holger! Es ist mir eine Freude, hier zu sein und über dieses wichtige Thema zu sprechen.
Holger Klein: Absolut! Digitale Sicherheit und der Schutz unserer Privatsphäre sind Themen, die uns alle betreffen. Konstanze, könntest du unseren Hörerinnen und Hörern einen kurzen Überblick geben, warum es so wichtig ist, sich in der digitalen Welt zu schützen?
Konstanze Kurz: Natürlich, Holger! In unserer vernetzten Welt sind wir ständig mit Technologie und digitalen Medien umgeben. Wir teilen persönliche Informationen, erledigen Bankgeschäfte online und kommunizieren über verschiedene Plattformen. Dabei hinterlassen wir digitale Spuren, die von Dritten gesammelt und ausgewertet werden können. Der Schutz unserer Privatsphäre ist daher von entscheidender Bedeutung, um unsere persönlichen Daten und unsere digitale Identität zu schützen.
Holger Klein: Das ist sehr wichtig, Konstanze. Aber wie können wir unsere Privatsphäre effektiv schützen? Gibt es konkrete Maßnahmen, die wir ergreifen können?
Konstanze Kurz: Absolut, Holger! Es gibt einige grundlegende Maßnahmen, die jeder von uns ergreifen kann. Zum Beispiel sollten wir starke Passwörter verwenden, unsere Geräte regelmäßig aktualisieren und uns bewusst sein, welche persönlichen Informationen wir online teilen. Es ist auch ratsam, sich mit Verschlüsselungstechnologien vertraut zu machen und Tools wie VPNs zu nutzen, um unsere Internetverbindungen zu sichern.
Holger Klein: Das sind großartige Tipps, Konstanze! Und wie sieht es mit dem Thema soziale Medien aus? Viele von uns nutzen Plattformen wie Facebook, Twitter oder Instagram täglich. Gibt es spezielle Ratschläge, um unsere Privatsphäre in diesen Umgebungen zu schützen?
Konstanze Kurz: Auf jeden Fall, Holger! Bei der Nutzung sozialer Medien ist es wichtig, unsere Privatsphäre-Einstellungen zu überprüfen und anzupassen. Wir sollten uns bewusst sein, welche Informationen wir teilen und mit wem wir sie teilen. Es ist auch sinnvoll, unsere Freundeslisten regelmäßig zu überprüfen und zu überlegen, welche Personen Zugriff auf unsere Beiträge haben sollten. Und natürlich sollten wir skeptisch sein, wenn uns unbekannte Personen kontaktieren oder verdächtige Links oder Anhänge teilen.
Holger Klein: Danke für diese wichtigen Hinweise, Konstanze! Abschließend möchte ich noch fragen, was du den Hörerinnen und Hörern mitgeben möchtest. Welche Botschaft möchtest du ihnen mit auf den Weg geben, wenn es um digitale Sicherheit und den Schutz unserer Privatsphäre geht?
Konstanze“
ChatGPT und verwandte modelle sehen keine einzelnen buchstaben sondern nur sogenannte Tokens die nach dem Prinzip des Byte pair encoding (BPE) vor dem Training des Modells gewaehlt werden. Ein einzelner Token ist typischer weise mehrere Buchstaben lang, aber die tatsaechliche laenge ist variabel. Darum kann ChatGPT keine Buchstaben zaehlen (zumindest nicht ohne weiteres).
Das mit den Tokens wusste ich, aber das er deshalb vermutlich die Entität „Buchstabe“ nicht zählen kann – spannend. Werde ich noch mal nachforschen.
Oh schaut mal:
a) ChatGPT4 behauptet, Buchstaben zählen zu können (nicht im Screenshot)
b) Bei einem langen, ausgedachten Kompositum kommt es ins trudeln und zählt 2x falsch
c) Wechselt dann – ohne Aufforderung! – die Strategie und baut eine kleine Tabelle auf um besser zählen zu können – mit dem richtigen Ergebnis.
Witchcraft.
https://chaos.social/@rstockm/110339865679496805
Danke nochmal für den Hinweis!
a) ChatGPT weiss nicht explizit was es tun kann und ob und wie gut, es kann seine eigene Architektur nicht begutachten (so wie ein Mensch nichts ueber Architektur des eigenen Nervensystems weiss ohne es explizit zu lernen)
c) durch diesen Zeilenumbruchsmodus zwingt sich ChatGPT mehr Tokens zu benutzen (und wahrscheinlich helfen newlines). Ich nehme an diesen Trick hat OpenAI explizit im RLHF teil des trainings GPT4 beigebracht.
Hier kannst du sehen wie dein Text in Tokens zerlegt wird. (das ist eine offizielle Seite von OpenAI)
platform[dot]openai[dot]com[slash]tokenizer
Ralf Stockmann ist absolut eine Bereicherung für die Freak Show.
Sehr schöne GPT Einordnung und prompt Engineering von Ralf. Interessant vielleicht noch: Schach wurde durch brute force Suche im Spielraum „gelöst“. Das ist kein KI Ansatz.
Bei Go dagegen war der Durchbruch auch erstmal ohne KI aber unter Wegwerfen von menschlichem Design: man lässt zur Stellungsbewertung die aktuelle Partie 5 Mio mal mit zufälligen(!) Zügen zu Ende spielen und schaut wer gewinnt wie oft. Damit hatte man eine gute Bewertung von Stellungen und dann kam wieder das Durchsuchen des Spielbaums. Da gehen dann aber nur noch die Regeln ein, keine menschlichen Gedanken. Diese Programme waren besser als die meisten Amateure.
Dann kam DeepMind und hat alles nochmal mit KI weiter optimiert. Aber schließlich auch ohne menschliche Partien. Die Programme nutzen nur die Regeln. (Trainingsdaten sind nur KI gegen KI Partien!)
Bei Sprache / Text wird es wohl nicht ohne menschlichen Input gehen. Insofern bleibt die KI ein Papagei während die Go und Schach KIs wirklich das Regelwerk gemeistert haben, besser als es menschliche neuronale Netze (also Gehirne) können.
Schön, dass es wieder Freakshow gibt :)
Deep Blue keine KI? Das ist umstritten. In Russel & Norvig: „AI, A Modern Approach“, dem wohl bekanntesten KI-Lehrbuch, werden auf intelligenter Suche basierende Problemlösestrategien auf 170 Seiten dargelegt.
Thema „bei Twitter ist jetzt scheiße“:
Ich hab gestern mal wieder den Blick in den Abgrund gewagt und musste feststellen, dass sie es jetzt scheinbar geschafft haben THREADS KAPUTT ZU MACHEN??!1?
Ich wollte nen Thread (verfasst von einer BPoC und mit erwartbar „linkerer“ Einstellung), lesen und musste nach dem Eingangstweet erstmal an 15 Kommentaren von irgendwelchen rechten „50 Follower“-Randos mit gekauften blauen Haken vorbei scrollen, bevor der relevante Inhalt weiter ging.
Falls das kein Glitch meiner Twitter App war sondern deren Ernst, würd ich schätzen, dass die Lichter da schneller ausgehen könnten als zuerst gedacht…
Lieber Tim,
ich war schon soweit das ich die Relevanz (für mich) der freakshow vergessen hatte. Nach der letzten Folge habe ich gedacht da muss sich noch was eingrooven.
Aber dann kam diese. Endlich höre ich kein Beratersprech mehr der mir die AI erklärt, sondern endlich Eure Einordnung.
Danke dafür
Zum Thema LEDs:
Da gibt es eine schöne Übersicht über Controller, libraries, diffuser Material, …
http://awesomeledlist.com
Das ist für Anfänger eher nicht geeignet (das ist keine Anleitung), wenn man aber schon etwas Erfahrung hat und für ein Projekt etwas spezielles sucht ist das ein guter Startpunkt.
Ersteinmal schön dass es wieder die Freakshow gibt :-)
Ich finde beim Thema K.I. den Film Ex_Machina (2015) super spannend und relevanter denn je. Gibt es auch gerade für 3,99 € im Apple TV Store, falls ihn jemand nachholen will.
Auch einer meiner Lieblingsfilme – trotz dem sehr reduzierten Szenario. Und der halbe Cast von EP VII spielt mit.
Danke für die tolle Folge!
Zum Thema deepl und deepl write:
Ich schreibe gerade meine Masterarbeit auf Englisch. Dabei habe benutze ich deepl und grammarly.com (wie deepl write) zur Formulierungshilfe und übersetzten. Ich muss sagen, ich bin ech begeistert, beide Tools vereinfachem das schreiben ungemein.
Ich schreibe die Arbeit in Latex und benutze dafür Visual Studio Code. Für VS Code gibt es für deepl als auch grammarly Erweiterungen, die über ihre jeweiligen APIs gleich Vorschläge und Korrekturen geben. So kann ich ein Satz auf deutsch schreiben und per Tastenkombination gleich übersetzen lassen. Und gramarly verbessert meinen Schreibstil massiv.
Schön das ihr wieder da seid!
Ich habe hier auch vom Tod von Nicolas gehört, sehr sehr schade!
Björn war eine schöne Abwechslung, gerne mehr von ihm.
Ralf Stockmann hat ein Problem mit Andor, ich habe ein Problem mit Ralf Stockmann. Der Jar Jar Binks der Freakshow, wie einmal bitte Schneidezähne ziehen beim Zahnarzt…überflüssig und absolut unnötig :)!
80% Redeanteil und zu allem etwas sagen müssen, kombiniert mit minutenlagen laaaangweiligen Monologen #gähn.
Bitte dann doch lieber durch Monologe von Tim ersetzen, die sind doch sehr viel gehaltvoller oder noch besser Dennis, Hulk und Letty zurückholen :)!
Grüße
Ralf Stockmann empfinde ich als absolute Bereicherung, da ich seine Beiträge inhaltlich sehr interessant finde und er sich meiner Meinung nach zudem eloquent ausdrücken kann.
Wenn ich freiwillig an einem Podcast mitarbeiten würde und Zeit und Mühen investieren würde, würde ich mich über Deine Ausdrucksweise und Vergleiche ein bisschen wundern.
Hier ist die meiner Meinung nach beste Erklärung auf YouTube, wie ChatGPT funktioniert. Das ist mit vielen Beispielen, vom Erfinder der Mathematica Software:
Stephen Wolfram, What is ChatGPT doing… and why does it work?
https://www.youtube.com/live/flXrLGPY3SU
Es gibt auch einen Artikel dazu:
https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/
aber ich finde das YouTube Video verständlicher.
Wie ChatGPT neue Texte erfinden kann, die es so noch nicht gab, ist leicht erklärbar: es wird nicht immer das wahrscheinlichste nächste Token ausgewählt, sondern es wird ein zufälliges aus den Top 20% oder so gewählt. Deswegen kommen auch Fantasienamen heraus, wenn man nach den Namen der Moderatoren von Podcasts fragt, und auch jedes Mal andere Namen, wenn man erneut fragt :)
Zu RGB kann ich noch bedingt etwas sagen, da ich mein Wohnzimmer auch mit LED-Stripes ausgerüstet habe als Hauptlicht/Ersatz. Aber nicht _so_ steuerbar auf LED-Niveau weil mir da der Anwendungsfall auch irgendwie fehlt. Insbesondere sind die Preise von diesen gemischten LED-Stripes, die alles können (RGBW bzw RGBWW) einfach zu teuer für die Lichtausbeute die man eigentlich haben will.
Ich habe also zuerst Alu-Profilschienen (breitere, so daß 3 Stripes reinpassen) mit milchweißer Diffusor-Einsatz gekauft und im Wohnzimmer auf etwa 2,30m Höhe ringsherum angeschraubt. Da habe ich nun 4 Seiten (es ist kein direktes Rechteck als Grundriss aber so halb) einzeln mit unterschiedlichen Stripes bestückt.
Oben habe ich reinweiße Stripes reingeklebt, bzw eigentlich WW, die ich zwischen Kaltweiß und Warmweiß unterschiedlich dimmen kann. Dann 3 polige Verkabelung bis dahin, für jede Seite extra, also 4 Kabel. Davon habe ich dann je 2 an einen Schaltkästchen gebaut und kann jetzt rechts+links und vorne+hinten separat schalten, bzw eben dann auch durchgehend alle 4.
Darunter habe ich 4 einfache RGB-Stripes (schwach Lumen im Vergleich zum weiß) geklebt, die kann ich nun je Seite unterschiedlich schalten. Also 4x4polige Kabel je Seite.
Und weil es im Endeffekt dank dunklerer Raumfarbe doch etwas dunkel sein _kann_, hab ich noch einen einzelnen 2pol Warmweiss-Stripe als 3. vorn und hinten geklebt, das sogenannte Putzlicht. ;)
Und nun misch ich mir meine Farbe der Beleuchtung, wie ich das möchte. Ich möchte doch nicht in Telekom-Pink oder Porno-Rot sitzen (sowas sehe ich auch in Youtubevideos…), aber ich reichere mein Weiß eben mit leicht blau oder leicht grün an, indem die RGB-Stripes dann halt vollständig grün leuchten, und die weißen halt weiß…. die RGBW-LEDs bekommen so eine Farbabstufung eben nur schwer hin, insbesondere dann in der nötigen Helligkeit….
Mir fehlt abseits des Spieltriebs eben der Anlass wirklich auf dedizierte steuerbare LED zu gehen. Im Matrixverbund gehen dann sicher Bilder und tolle Effekte – aber als Raumbeleuchtung eher nicht brauchbar. Und ja, diese Schaltkästen können dann auch Blinken und Farbwechsel und Blinken mit Farbwechsel und weiteren Horror, was als Späti-Aufmerksamkeitserregung sicher gut funktioniert, aber trotzdem scheisse aussieht. Und dabei will ich doch nicht TV gucken.
TV mache ich übrigens nun mit seitlichem Licht, da die vordere oder hintere Stripes sich im TV spiegeln, trotz dessen, daß sie ja hoch im Raum sind. Seitlich geht das prima. Gut daß ich das so einzeln schalten kann. So ist es auch dunkel genug (dimmbar) für „Kino“, und man hat trotzdem noch etwas Licht, um eben nicht über alles zu stolpern…
Finde ich gut so und bleibe dabei… weniger ist mehr.
Im Bad ist auch ein einzelner Stripe ringsherum als Abschluß oberhalb des Fließenspiegels meine einzige Raumbeleuchtung. Funktioniert auch gut. Ist dann auch ein isolierter LED-Stripe, der einen Plastiküberzug überall hat und damit wasserdicht (Dusche und so) ist. Das sind mit etwa 120W Raumbeleuchtung (über die gesamte Länge) als LED enorme Leistungen, dann ist es aber auch entsprechend schön hell. Ich mag kein Funzellicht. Das ist sogar 24V, damit die Stromstärke wieder etwas günstiger ist.
In ein paar Jahren guck ich mir aber nochmal an, was ich vielleicht dann für Stripes reinkleben könnte, vielleicht gibt es dann doch bessere Angebote. Die Schienen sind ja da und können bleiben.
LED mit 120 Watt fürs Badezimmer? Dann aber nicht wundern, wenn ab und zu ein Flugzeug dort landet.
LED-Stripes scheinen eben noch eine deutlich geringere Lichtausbeute zu haben wie LED-Panels oder LED-„Glühbirnen“. Von der Helligkeit ist es eher wie ein 40W LED-Panel, das ich woanders habe.
Ich glaube die Videos die ihr bei Minute ~18:40 meint sind Redlettermedia: Start des Reviews von Episode 1: https://www.youtube.com/watch?v=FxKtZmQgxrI
Ganz genau – vielen Dank!
Dass es Bluesky aktuell nur als App gibt, stimmt nicht ganz: Auf https://staging.bsky.app/ ist eine Weboberfläche erreichbar (soll bald umziehen auf https://bsky.app/ ohne „staging“). Generell sind Bluesky und das zugrundeliegende AT Protocol noch in einer sehr early Beta und viele wichtige Features werden noch gebaut bzw. designed. Deshalb lässt das Dev-Team aktuell nur so wenige Leute drauf. Das Dev-Team ist selbst sehr (inter)aktiv auf Bluesky und erzählt ganz offen über den aktuellen Zustand und wie es weiter gehen soll. So auch im Bluesky-Blog: https://blueskyweb.xyz/blog. Dass es aktuell nur den einen Server gibt, hängt auch vor allem mit dieser frühen Entwicklungsphase zusammen. Federation wird halt auch noch designed (siehe https://blueskyweb.xyz/blog/5-5-2023-federation-architecture). Bluesky selbst ist eine Public Benefit LLC, was für ein weniger ausgeprägtes Profitstreben spricht. Ansonsten ist der Vibe dort sehr gut, von der UX her ist es einfach 1000x besser als Mastodon.
Hmmm, hmmm, hmmm… jetzt habt ihr extra den Björn als Elixir/Erlang-Experten eingeladen – ich war schon gespannt wie der Programmierparadigmendisput weiter ausgefochten wird – und dann: nichts.
So geht das nicht. Tim ist in Folge FS264 in seinem naiven Unwissen XD ungerechtfertigt über das objektorientierte Sprachparadigma hergezogen; das Thema kann noch lange nicht durch sein. Btw., so wie Roddi es schon letztens erwähnte, die Eigenschaft der Vererbung ist für OOP nicht ausschlaggebend, sondern eher „message-sending“, „late binding“, „dynamic linking“, „reference by name“, mit Zeitstempel versehene Kontexte oder Nutzung einer virtuellen Maschine, um hier mal unvollständig zu bleiben.
Die Ursprungsidee von OOP war es, dass jedes Objekt eine eigenständige Computereinheit sein sollte bzw. ein Automat. All diese Automaten kommunizieren über Nachrichten (messages) in einem Objekt-Netzwerk. Praktisch ähnlich der Funktionsweise der Endpunkt-Computer des heutigen Internets. Und es verwundert auch nicht, das genau diese Grundlagen des Internets aus dem Dunstkreis der Erfindergruppe rund um Alan Kay im Xerox Parc Palo Alto erdacht wurden.
Weiterhin sind „Objekte“, so wie sie gemeint sind, nicht einfach nur irgendwelche Speicherbereiche, die Daten aufnehmen können und denen Verhalten über Methoden zugeordnet ist, sondern über die Zeit evolvierende Objekte – deshalb diese Bezeichnung. Jedes Objekt ist eine virtuelle Maschine in sich selbst. So gesehen ist der Ansatz den Java, C++ und ähnlichen imperativen Krüppelsprachen darbieten, eher mit Cargo-Kult zu umschreiben.
Der Umstand, warum dieses Wissen darüber nicht weit verbreitet ist, liegt darin, dass sich ein durch ökonomische und ideologische Zwänge ergebener realisierter Strang – ja Leute, wir leben im Kapitalismus – von imperativer Hardware durchgesetzt hat (Intel), der für Sprachparadigmen wie objektorientiert, funktional-listenorientiert, petrinetzorientiert, fuzzyorientiert oder auch logischorientiert maximal umständlich ist. Die Hardware die wir alle flächendeckend nutzen müssen ist eine Lüge. Sie ist nur eine geringe schlechte Auswahl von möglicher Hardware. Wir müssen diesen Intelmist (ja auch Apple-Silicon/Arm) benutzen, weil es den maximalen Profit ermöglicht und nicht die maximale Computing-Freiheit.
Und wenn Tim von seinem Erlebnis des Dioden-blinkenden Modelcomputers in diesem UK-Museum erzählt, weiß er leider nicht, dass dies nur eben dieses schlechteste Model von Möglichen Rechenmaschinen ist, von denen die man sonst noch bauen könnte.
So müsste ein besserer Computer z. B. in der Lage sein, jegliche(!) Hardware-Subsysteme samt Status zu einem Zeitpunkt zu virtualisieren und gegebenenfalls über das Internet auf andere Computer zu übertragen. Oder eine Anzahl „n“ von Computern schließt sich zusammen, um eine andere Anzahl „m“ von Computern zu simulieren; und all das ohne Geschwindigkeitsverlust, wie es leider heutzutage von den imperativen (Intel/Apple/Arm)-Maschinen uns vorgegaukelt wird: „Mi-mi-mi, das geht nur in einer VM und die ist langsam.“ Nein ist es und muss es nicht! Die angeblich notwendige Trennung zwischen Hard- und Software muss neu bewertet werden: Hardware ist somit nur eine zu einem Zeitpunkt ‚eingefrorene‘ Software.
Wir hatten alle leider das große Pech, das die ersten Computer von klischeehaften Ingenieuren gebaut wurden und nicht von elegant denkenden Theoretikern wie Alonzo Church und John McCarthy.
Ein sehenswertes Video mit Vortrag und Diskussion zwischen den Erfindern von Smalltalk und Erlang empfehle ich jedem interessierten: „Joe Armstrong & Alan Kay – Joe Armstrong interviews Alan Kay“ https://www.youtube.com/watch?v=fhOHn9TClXY
Das Video „Object-Oriented Programming is Bad“, das Tim in den Shownotes von FS264 verlinkt hat, ist dagegen, nebenbei gesagt, die dümmste oberflächlichste Scheiße, die Youtube dazu zu bieten hat.
P.S.: Ich bin gespannt, wie lange sich die neue Generation von KI mit den von menschlichen Begrenztheiten gebauten Computern und deren Sprachen herumschlagen möchte.
Well, that’s just your opinion man.
Die These, dass OOP im wesentlichen durch Attribute wie „message-sending“, „late binding“, „dynamic linking“ und „reference by name“ beschrieben werden könnte, halte ich wiederum für sehr steil.
Message Sending ist das, was Smalltalk gemacht hat, aber kaum eine andere „OOP“-Sprache übernommen hat. Die anderen drei von Dir genannten Attribute sind simple Eigenschaften von vielen Sprachen bzw. eher dem darunter liegenden Linkersystem und ich kenne keine Definition von OOP in denen diese Eigenschaften eine Rolle spielen.
OOP wird im Allgemeinen vor allem durch Eigenschaften wie Klassen, Vererbung, Kapselung und Polymophie beschrieben.
Klassen, Vererbung und Kapselung sind dabei die von mir vor allem kritisierten Eigenschaften, weil sie am Ende des Tages mehr Zwang auferlegen als Freiheiten und Flexibilität schaffen. Diese Eigenschaften zu nutzen ist mehr eine Verpflichtung als Erlösung.
Polymophie ist wiederum ein sehr erstrebenswertes Ziel, wird aber von OOP meist selten erreicht und kann auf anderem Wege (z.B. Mulitiple Dispatch oder Pattern Matching) sehr viel effizienter umgesetzt werden.
Und daher habe ich die Frage gestellt: wozu OOP? Welche Eigenschaften ist wirklich hilfreich und wofür? Darauf hat hier bisher noch keine eine Antwort geliefert und auch Deine Ausführungen verirren sich in abstrusen Hoffnungen auf bessere „Hardware“. Das mag wünschenswert sein, hat aber mit der OOP-Diskussion nichts zu tun.
Übrigens gab es diese schon mal: es waren die Lisp-Machines, die optimiert waren für die Ausführung von funktionalem Code mit dem Ziel KI zu erforschen.
https://de.wikipedia.org/wiki/Lisp-Maschine
Aber was weiß ich schon mit meinem „naiven Unwissen“ :)
Tim, du musst jetzt ganz stark sein, an KI-generierten Podcasts wird in der Tat schon getüftelt:
https://podcast.ai
Ich kam auch extra in die Kommentare um https://hackerfm.com zu teilen. War mal experimentell um hacker news als podcast zu verwursten
Ich wollte auch auf eine (deutsche) Folge von LLMs hinweisen: https://neurotainmentshow.letscast.fm/episode/dieser-podcast-entstand-durch-kuenstliche-intelligenz-084
Dazu passt, was auch zu den Journalisten passt, die Artikel von LLMs schreiben lassen und sich dann darüber auslassen, dass es ja keiner der Leser gemerkt hat: Liebe Journalisten, wenn Eure Leser keinen Unterschied zwischen einem Artikel von Euch und einem Artikel von einem LLM feststellen, dann sollte Euch das keine Loblieder auf die LLM entlocken sondern abgrundtief peinlich sein.
Die Bewunderer der Elche //
hätten gerne selber welche.
Ich habe meine Bachelorarbeit über Künstliche Intelligenz als Figur im Film geschrieben und 2001, A.I. und HER analysiert. Die mündliche Verteidigung letztes Jahr hat ChatGPT bereits unterstützt und für gute Unterhaltung gesorgt.
Ah – gerne mal bei mir melden, gerne über Mastodon. Würde ich mal reinlesen wollen!
Ralf sagt im Podcast zum Thema Konfidenzintervalle bei ChatGPT / LLMs:
„Und das ist glaube ich eine Sache, die man in LLMs eigentlich sehr gut abbilden könnte. Und das habe ich schon im November nicht verstanden, warum sie das nicht schon vom Start weg gemacht haben, dass sie Formulierungen reinbringen wie „ich glaube“ oder „ich bin mir einigermaßen sicher, dass“. Weil, durch dieses so „welchen Weg gehe ich jetzt mit meiner Wortwahrscheinlichkeit“ müsste sich eigentlich eine Konfidenz relativ gut berechnen lassen …“
Das hat mich ein wenig stutzig gemacht. Die Wortwahrscheinlichkeiten spiegeln ja die Wahrscheinlichkeit wider, mit der bestimmte Wörter in einem gegebenen Kontext auftreten. Diese Wahrscheinlichkeiten stehen demnach in keinem Zusammenhang damit, ob die generierte Tokenfolge wahr, richtig, korrekt oder gut begründet ist.
Oder habe ich den Punkt falsch verstanden?
In dem Video von Stephen Wolfram (schon sehr fordernd aber m.E. lohnend) wird es so gezeigt: ChatGPT (und generell LLMs) nehmen nicht immer die wahrscheinlichste „Route“ durch die Tokens (Wörter/Assosiationsketten) sondern haben einen Zufallsfaktor eingebaut, der auch mal Position 2, 3 etc. zieht. Wenn das nicht der Fall wäre, würden die Texte schnell in endlos-Schleifen drehen (das zeigt er wirklich cool live).
Ich leite daraus ab: wenn man etwa nach zwei Positionen fragt – Homöopathie sinnvoll oder Humbug? Dann gibt auch ChatGPT4 einen endlosen sowohl als auch und man muss ja alles respektieren Sermon von sich. Weil eben im Internet auch viel Dummfug aus der Schwurblerecke dazu steht.
Es sollte aber möglich sein, entlang der Wahrscheinlichkeiten der Token-Ketten zu berechnen, bei wie vielen Durchläufen man statistisch zu welchen Ergebnissen kämme bei einer A/B Entscheidung. Und dann sollte sich ein recht stabiler Wert berechnen (und ausgeben/verbalisieren) lassen in der Form „95% aller mir bekannten wiss. Studien und Argumente kommen zu dem Schluss…“
Vielleicht sehe ich das aber auch zu optimistisch, aber so mein derzeitiges Verständnis, schaue aber gerade auch nochmal das Video durch.
Hier just von heute ein kleines Experiment zu Homöopathie von mir:
https://chaos.social/@rstockm/110349136984365428
Danke auf jeden Fall für die Nachfrage. Ich fürchte, ChatGPT wird in sehr kurzer Zeit als „Welterklärungsmaschine“ genutzt/verstanden werden, und da ist es völlig egal ob das mit der Technik bezweckt war oder nicht – Menschen werden es tun. Darum müssen wir gut verstehen, was sinnvolle Auswege/Strategien dazu sind.
an einem Erfurter Gymnasium sind die Lehrer auf die Idee gekommen, ChatGPT zu fragen ob ein vorliegender Text von ChatGPT geschrieben wurden um Cheating von Schülern aufzudecken.
Bei 4 Arbeiten behauptet ChatGPT das die KI den Text verfasst hat. Bei 2 der Arbeiten ist es bei den entsprechenden Arbeiten für die Lehrer klar das diese Schüler die KI genutzt haben, die anderen 2 Treffer würden Schüler betreffen die bisher nicht durch Schummeln aufgefallen sind.
Wie erklärt man den Lehrern den Begriff „false positiv“?
Es gibt keine weitere Information, ich würde erwarten das ChatGPT antwortet „ja ich habe diesen Text am DD.MM.JJJJ verfasst … und an folgende IP ….. ausgegeben“ und nur wenn das Datum in den Zeitraum von Stellen der Aufgabe und Abgabe passt, würde ich überhaupt darüber nachdenken das Ergebnis ernst zu nehmen.
Andererseits können die Lehrer auch einen größeren Teil von Texten (deren Autoren bekannt sind) abfragen und eine Statistik erstellen wie oft ChatGPT behauptet den Text verfasst zu haben. …
Was ist so schlimm an Twitter?
Mastodon hat so ziemlich das Thema verfehlt. Dezentrale Technik ist nur sinnvoll, wenn es Zensur verhindern kann und nicht aufbaut. Zensur kann Twitter besser, was man ja während der Pandemie gesehen hat.
Die Aussage, dass LLMs Kindern aus bildungsfernen Haushalten große Chancen bietet (ca. bei 2:30), ist im Allgemeinen bestimmt korrekt. Dass es daher generell zu mehr Bildungsgerechtigkeit führt, halte ich für nicht ganz so eindeutig. Um es platt zu sagen: hat eine Familie, die sowieso am Existenzminimum lebt, noch am Ende des Monats die 20€ für die Pro-Version von ChatGPT? Das was für reiche Menschen lächerlich klingt, ist für die Familien, die davon sehr profitieren würden, vielleicht nicht erschwinglich. Zudem es weitere hilfreiche KI Tools mit monatlichen Kosten geben wird und auch schon gibt. (Eine gute Lösung sehe ich hier nicht, außer vielleicht dass die Schule in irgendeinem Maße die Anwendungen zur Verfügung stellt.)
Ich würde mir echt wünschen, dass es ernstzunehmende Konkurrenz zu Microsoft, Google und den anderen Kollegen aus BigTech geben wird, es nicht (wie bei sovielen Produkten) eine Monopolisierung gibt und wir nicht das Kapitel „die Reichen werden reicher, die Armen werden ärmer“ immer und immer wiederholen.
LG Martin
Moin moin,
danke für die tollen Einlicke in ChatGPT etc. :)
Eig. wollte ich diesen Kommentar bei LogbuchNetzpolitik droppen, aber hier passt er aktuell besser.
—–
Quellen first:
Ich bin auch über das „stochastic Parrot“-paper gestoplpert – über diesen Podcast:
– https://www.buzzsprout.com/1004689/12640803
Die Gesprächpartnerin ist die (mit-) Authorin des papers, Emily M. Bender („Department of Linguistics at the University of Washington and the Faculty Director of the Computational Linguistics Master’s Program“)
Der Podcast wird ’spannend ab Minute 20′
—
Es wird primär über 2 Paper gesprochen:
Stochastic Parrot –> https://dl.acm.org/doi/10.1145/3442188.3445922
Octopus Paper –> https://aclanthology.org/2020.acl-main.463/
—–
Ich finde eure Schlussfolgerungen bzgl. des ‚Stochastic Parrots‘ besser. ;-)
Bzgl. des Octopus Papers – der Octopus (ChatGPT) kennt die realwelt nicht – würde ich mitgehen, dass diese aufgrund der menge an gefüttertel Text ..
.. vernachlässigbar wird.
—–
Warum schreibt ich dies hier?
Wäre ich @Tim, dann würde ich gerne mit dem Co-Author des Octopus-Papers über die aktuelle Entwicklung reden (Saarland University, Dept. of Language Science and Technology).
Vllt. ergibt sich ja eine Möglichkeit dazu :) ;-)
VG und weiter so
Zu ChatGPT sei „Creeped Out“ S2 E3 zu empfehlen #Netflix
Björn hat vorhin folgenden Satz in den Äther geschleudert, unter dem ich mir überhaupt nichts vorstellen konnte:
„Das heißt, man hat quasi wieder ein Template im Backend, was man rendert, was man dynamisch updatet und dann hat man in diesem Framework ein Diff-System, was sich das HTML-Diff ausrechnet und das über Websockets an den Client pusht.“
Mit etwas Zureden hat mir das freundliche ChatGPT nachstehenden, in Verständlich übersetzten Text generiert:
„Entschuldigung für die vorherige knappe Antwort. Der Satz bezieht sich auf die Verwendung von Elixir, einer funktionellen Programmiersprache, insbesondere im Zusammenhang mit der Erstellung von Webanwendungen.
Der Satz beschreibt, dass im Backend (also auf der serverseitigen Logik) ein Template existiert, das verwendet wird, um dynamische Inhalte zu generieren. Dieses Template wird gerendert, was bedeutet, dass es in eine konkrete HTML-Ausgabe umgewandelt wird. Das Template kann als eine Art Vorlage betrachtet werden, die Informationen enthält, die zur Erzeugung von HTML-Inhalten benötigt werden.
Das „Dynamische Updaten“ bezieht sich darauf, dass das Template in der Lage ist, sich während der Laufzeit zu verändern, basierend auf bestimmten Ereignissen oder Benutzerinteraktionen. Dadurch können die Inhalte der Webseite aktualisiert werden, ohne dass die gesamte Seite neu geladen werden muss.
In diesem speziellen Framework (das nicht näher spezifiziert ist, aber möglicherweise Phoenix, ein Webframework für Elixir, sein könnte) gibt es ein sogenanntes „Diff-System“. Ein Diff-System berechnet die Unterschiede zwischen dem aktuellen HTML-Zustand und dem aktualisierten HTML-Zustand, um nur die erforderlichen Änderungen zu identifizieren. Dadurch können nur die geänderten Teile der Webseite übertragen werden, anstatt die gesamte Seite erneut zu übertragen.
Die Kommunikation zwischen dem Server und dem Client (also dem Webbrowser des Benutzers) erfolgt über Websockets, die eine bidirektionale Kommunikation ermöglichen. Das bedeutet, dass der Server über Websockets die aktualisierten Inhalte an den Client „pusht“, also aktiv an den Client sendet, sobald sie verfügbar sind. Dadurch kann der Client die Webseite ohne manuelles Aktualisieren aktualisieren und die neuesten Änderungen anzeigen.
Zusammenfassend lässt sich sagen, dass der Satz beschreibt, wie Elixir in einem spezifischen Framework verwendet wird, um ein Template im Backend zu rendern, dynamisch zu aktualisieren und die Änderungen über ein Diff-System und Websockets an den Client zu übertragen. Dadurch können Webanwendungen effizient und interaktiv aktualisiert werden, ohne die gesamte Seite neu laden zu müssen.“
Die KI lebe hoch, hoch, hoch! :)
Zum Thema Rassismus / Vorurteile etc in chatgpt ist doch eigentlich sonnenklar. Etwaige Haltung in der source wird natürlich auch übernommen wie sollte das auch vermieden werden. Es gibt ja keine Moral Instanz in der Software oder ?
Erinnert mich an Amazon die mal versucht haben ihre Einstellungsgespräche per Algorithmus zu automatisieren, blöderweise wurde mit den aufgezeichneten Einstellungsgesprächen trainiert dh Frauenfeindlichkeit und Rassismus wurden mit trainiert.