Pavel Mayer 2:00:49
Der Antike Naja, also wie gesagt, man kann unglaublich tolle Dinge damit machen.Stimmen, generierte Stimmen klingen immer besser.Bilder, was jetzt so Visualisierung und so angehen, muss ich sagen,habe ich immer noch nichts gesehen, wo ich sagen würde.Okay, das ist jetzt was Neues, also das Gefühl sind schon alles Imitationenund Remixe, aber unabhängig davon.Hat man natürlich, hat,die Geschäftswelt jetzt entdeckt oder die Hoffnung besteht,dass man mithilfe dieser neuen Art an Automatisierung jetzt mehr lästige undteure Menschen einsparen kann.Was ja grundsätzlich okay ist.Deutschland ist gut gefahren mit Automatisierung, weil das hält dann die Löhnehoch, das erlaubt Arbeitszeitverkürzung und generell, ja, ist jetzt,ich sage Automatisierung,gab es ja die Debatten in den 80ern und in den 90ern, auch die entsprechenden Gegenbewegungen.Ja, aber jetzt mit den neuronalen Systemen sind die Möglichkeiten,was man machen kann oder was Computer machen können, in ganz neue Bereiche vorgedrungen.Und der große Hype-Zyklus ist jetzt nicht nur, was viele machen.Neuronale Automatisierung von Geschäftsprozessen.Sondern eigentlich ist der Wunsch, dann den Drop-In-Worker zu haben.Das heißt, eine KI, der du einfach sagen kannst, so wie einem Mitarbeiter ineinem bestimmten Bereich, okay.Du bist jetzt für das und das zuständig, mach das bitte, kümmere dich darum,organisiere das und setze das jetzt irgendwie um.Das ist so ein bisschen der Wunsch. Das heißt, generell geht dann eben auchder Trend dazu, dann neuronalen Systemen mehr Agency zu geben.Also im Prinzip sie als Agenten oder Agentensysteme einzusetzen,die dann auch tatsächlich was tun können.Hier das Beispiel, was wir jetzt hatten mit der Visualisierung und Auswertungund so, das ist noch relativ harmlos,weil es auch nicht in Echtzeit gerade mitläuft während der Sendung und auchansonsten Ergebnisse generiert,die man dann reviewen und dann online stellen kann.Das heißt, da ist jetzt kein Agent dahinter.Es sei denn, Pipeline, um das jetzt zu generieren, ist jetzt auch eine Bild-und Testpipeline, die in irgendeiner Weise automatisiert ist.Dann besteht zumindest auch Gefahr mit bestimmten Daten oder Links,die da dann eventuell drin sind.Dass dann die Bildplattform übernommen wird.Oder dass dort Sachen eingeschleust werden, letztlich Schadsoftware verstecktwird in Repositories und so weiter.Soweit ist man jetzt. Und dann ist, weil das Ganze auch jetzt so relativ neuist und weil viel Begeisterung jetzt dabei ist und weil dann auch viel Vibe-Coding passiert,fühlt sich das Ganze an, erinnert mich an das Internet in den frühen 90er Jahren.Das war so Anfang der 90er Jahre.Das Internet war so,da gab es praktisch keine Firewalls und kein NAT, sondern alle Rechner hingendirekt am Internet und hatten eine IP-Adresse.Das heißt, jeder Rechner, und das war Anfang der 90er, waren das schon eineMenge, so konntest du halt direkt erreichen, ohne dass irgendwas direkt rein.Hingen mit allen offenen Ports in der Regel im Internet und weil das Internet auch so exklusiv war,dass halt überwiegend nur Forscher und reiche Leute sich darin tummelten.Hatte man auch erst mal, ja also Security existierte zwar, aber da war jetzt kein großes Thema.Also dass wir zum Beispiel, als wir mal an einem Projekt gearbeitet haben,Visualisierung von Medizindaten und hatten eine Kooperation mit der Charitéund die wollten uns Daten bringen, aber irgendwie optische Disk funktionierte nicht.Und dann haben wir dann gefragt, können wir uns die Daten direkt vom CT-Scanner holen?Weil geguckt, einfach die Platte per NFS vom CT-Scanner in der Charité zu Hausegemountet oder in der Firma einfach über NFS gemountet und die Daten direkt vom Scanner gezogen.Keine Authentifizierung, nichts.Also man muss noch nicht mal irgendwie Sicherheitslücken groß ausnutzen.Und ich erzähle das nur deswegen, weil teilweise ich mich an diese Zeiten zurückerinnertwurde, wenn ich mir so manche Systeme angucke,gerade wo AI deployed wird in Agentensystemen oder insbesondere was halt.Ich gucke gerade, was ich denn, von Jailbreaks hat halt glaube ich jeder schongehört, aber das andere große Thema ist eben Prompt Injection.Das heißt, dass man jetzt bei LLMs in den Kontext auf verschiedene Art und WeiseDaten einschleust oder Anweisungen einschleust,ohne dass der Benutzer das sieht und mit denen man da Dinge tut,die eigentlich verboten sind.Das heißt, der niedrigste Level ist, dass man Systeme dazu benutzt,um Scams, Desinformation und Phishing zu verbreiten oder zu betreiben über Prompt Injection.Aber so richtig spannend wird es dann natürlich mit so Automatic Tool Invocation,wenn dort das System in der Lage ist,weitere Software zu starten auf dem Server und dann man dort letztlich CodeExecution möglicherweise hat.Oder eben bestimmte Tools benutzen kann, um dann halt typischerweise Daten zuexfiltrieren und auf Daten zuzugreifen, auf die man eigentlich keinen Zugriff haben sollte.Das ließe sich auch alles problemlos, oder was heißt problemlos,Es ließe sich halt vermeiden.Wenn man entsprechend die Daten, um die es geht, mit entsprechenden Zugriffsberechtigungen schützt.Aber jeder weiß hier, glaube ich, was das für eine Hölle ist,wenn man anfängt, jetzt für ein System Zugriffsberechtigungen zu gestalten.Die sind entweder zu restriktiv oder zu permissiv und macht viel zu viel Arbeit.Das heißt, im Moment, einfach weil teilweise zu viel Geld gespart werden soll,wird das Ganze eben auch automatisiert oder man gibt halt den Komplettzugriffund verlässt sich dann auf eventuell andere Mechanismen, aber das geht halt regelmäßig schief und,Das Interessante, was mir vorher gar nicht bekannt war.Das was unter ASCII-Smuggling bekannt geworden ist,ist in Wirklichkeit eine Prompt Injection über im Wesentlichen Emojis oder halt Unicode Characters.Und was mir vorher, also hättest du mich vor zwei Jahren gefragt.Hätte ich das nicht für möglich gehalten, weil nicht klar war,dass du in Unicode beliebige Daten mithilfe des sogenannten Tag-Systems verstecken kannst.Das heißt als Beispiel, Flagge, also bei den ganzen Flaggen in Unicode,hat nicht jede Flagge ihr eigener Unicode in dem Sinne, dass es ein eigenerCodeblock ist, sondern die ist halt getaggt.Das ist dann der Unicode-Flagge, getaggt dann mit Deutschland oder getaggt ISO-Codes entsprechend.Aber diese Tags können halt variable beliebige Länge haben.Das heißt, du kannst dann in bestimmten Emojis halt, kannst du dann kompletteStrings oder Anweisungen reinbringen.Auf dem Bildschirm siehst du nur das Emoji, aber die Klänge.KI liest halt die ganzen Tags als Anweisungen dann.Das ist halt eine bekannte Art und Weise.Um Daten reinzuschmuggeln oder auch rausschmuggeln wiederum gängige Art und Weise.Ist dann, weil mehr und mehr von den LLMs in der Lage sind, jetzt auch HTTP-Requestszu machen oder DNS-Requests dann auszuführen,dass man dann einen eigenen Web-Server oder einen DNS-Server aufsetzt und danndie Daten darüber exfiltriert,dass man die LLM halt Anfragen bei deinem eigenen Server machen lässt.Und du dann in der URL oder in dem Domain-Name halt die zu exfiltrierenden Daten codierst.Also so, ja.
Okay schade der Download macht nichts außer via Overcast den Akku leer :(
Ja bei mir auch, 40KB/sec :-( Meine Leitung könnte 40Mbps!
Tim,
was ist denn jetzt mit dem 10 gbit Server ? Die folgen lassen sich Stunden nach der veröffentlichung immernoch nicht herunterladen, dass Problem besteht bereits seit über 1 Jahr…
Leave Britney Alone!
Zum Thema Smarthome:
Es gibt Fenster/ Türsensoren die anhand der Zapfenstellung jeden Zustand von Fenstern erkennen können. So erkennt der Sensor auch ob eine Tür wirklich geschlossen oder nur zugefallen ist.
https://www.senoro.de/ …leider alles andere als günstig..
Zu den neuen Ikea Matter Sensoren , diese verstehen nicht nur Matter sondern können auch in einen ZigBee pairing Mode gebracht werden.
https://www.reddit.com/r/tradfri/s/2EPKIkmk30
Danke, die kannte ich noch nicht. Alternativ gibt es auch Türgriffe, wie z.b. von Hoppe, die über Enocean funken.
Sind aber leider auch nicht günstig.
Techniker informiert? Der Download via Overcast ist fast unmöglich geworden. Danke!
Ja, Overcast rödelt sich mit ständigen Restarts des Downloads nach knapp der Hälfte der Datei seit gestern Abend einen ab. Ist sicher auch nicht förderlich.
Ich hab mir jetzt mit dem Browser das MP4 gezogen und manuell in Overcast eingespielt. Nicht wirklich die erstrebenswerte Lösung.
Wenn KI-Robots soviele Episoden runterladen, musst du denen eine Gebühr stellen. Wenn du soviele Zuhörerinnen hast musst du endlich mal eine besser Anbindung zur Verfügung stellen. Auch wenn nur ein kleiner Teil zahlt, sollte es dafür doch reichen.
Der neue Server ist schon bestellt und wird gerade bereitgestellt. Der ganze Umzug der Metaebene wird dann allerdings wohl noch zwei Wochen dauern. Management Summary: help is on the way.
Stromberg würde sagen: Komm jetzt, ähh MACH!
Hallo Tim,
wenn Du volle Kontrolle anstrebst, kommst Du um einen eigenen smarthome server (z.B. auf RaspberryPi o.ä.) nicht herum.
Das Thema ist aber sehr gut durchgespielt und alles dokumentiert im Internet.
Hier bei mir läuft das alles mithilfe „NodeRed“ auf einem Raspberrypi seit 5 Jahren fehlerfrei und familienfreundlich. Ab und an wird mal ein neues Spielzeug integriert.
Wer ernsthaft Integration diverser Systeme betreiben und automatisieren will kommt um Homeassistant nicht herum.
Ganz genau und wo ist denn hier das angesprochene Nerdtum zu erkennen, wenn man nur auf die Herstellerapp setzt? ;)
Mal wieder schöne Folge!
Das ganze Segment fühlte sich wie Ragebait an, wenn man die Lösung kennt. Ich wollte schreien „NUTZ HOME ASSISTANT!!!!“
Habe ich schon mal gemacht, war allerdings nicht die beste Erfahrung. Raspi war immer wieder nicht erreichbar und musste manuell rebootet werden. Davon abgesehen ist natürlich da die Lernkurve höher, weil mit „man kann alles machen“ natürlich auch viel Komplexität ins Setup kommt. Irgendwann werde ich das Thema noch mal aufgreifen, aber da werde ich abwarten bis Bedarf nach einem wirklich unverzichtbaren Feature aufkommt, das nur mit Home Assistant gelöst werden kann. Bis dahin bevorzuge ich ein einfaches Setup.
Ging mir ähnlich, es war schnerzhaft euren erfahrungsberichten zuzuhören, da es doch so einfach geht.
Homeassistant mit AddonStore auf eine raspi5, einwandfrei, kein rumhacken in der yaml und über das webinterface ist ALLES frei belegbar.
Hue hat einen tollen multi dimmer switch und button und die alten runden von ikea sind auch super. 5 Knöpfe, sehr intuitiv. Dazu tasmota Dosen über mqtt. Mischen ist hier echt kein problem.
Hallo Tim und vielen Dank für deine Antwort. Ich hatte meinen Beitrag hier geschrieben, bevor ich das Segment komplett fertig gehört hatte und du hattest es ja auch mit dem Verweis an home assistant und deine Erfahrung damit abgeschlossen.
Ich kann deinen rent gut verstehen und wünsche mir manchmal auch, dass die einzelnen Ökosysteme in sich schlüssig funktionieren.
Warum ist es gut noch mal eine Chance ich bin kurz davor meine config auf einen dedizierten raspberry mit home assistant OS umzuziehen was in vielen Bereichen noch schmerzfreier funktionieren sollte. Ich habe einen einfachen ZigBee Stick, darin stecken, der die Kommunikation mit den Lampen direkt steuert.
Ich wünsche dir. Einen schönen Sonntag
„Irgendwann werde ich das Thema noch mal aufgreifen, …“
vielleicht zu einem di.day ;)
Ich habe auch gespannt zugehört und alle Schilderungen (Status Statistik, Zustände auslesen, Automatisierungen, …) vom Tim bzgl. dem, was nicht geht, ist einwandfrei und stabil mit Home Assistant umzusetzen.
Läuft bei mir seit Jahren stabil im Einsatz…und wenn mal etwas nicht geht, dann liegt es an der Hardware (denn ein Shelly PM2.5 kann schon mal ausfallen).
Ich bin außerdem Verfechter davon, dass ein Smart Home nicht primär vom Handy (oder per Voice) bedient wird, sondern i.d.R. automatisch das macht, was man erwartet bzw. möchte. Dieses dauert natürlich etwas, bis sich das „eingroovt“…ist dann aber wirklich „smart“ ;-)
Bei mir läuft aktuell über Home Assistant: Licht, Zugang, Audio, TV, PV+Speicher (vor allem Lade- und Entladelogik), Heizung, Belüftung, Rasenmäher, Staubsauber, Videoüberwachung, …
Alles ein „bunter Mix“ von Herstellern und Protokollen…aber vor allem alles stabil!
Meine letzte Recherche vor einigen Monaten zwecks endlich mal den kleinen Mini-Server für HA Zwecke zu gebrauchen brachte zustande, dass der Goldstandard derzeit wohl sei, Homeassistant als Basis zu nutzen, für sämtliche Automation allerdings NodeRed zu benutzen, da es diesbezüglich wesentlich übersichtlicher, zugänglicher und auch leistungsfähiger ist.
Als „selten Kommentartor“ muss ich auch nochmal Home Assistant FTW schreiben.
1. Der Riesenvorteil aus meiner Sicht ist, dass man diverse Systeme (bei mir vor allem Philips Hue, weniger IKEA Tradfi, Shelly, 2-3 Noname China-Anbieter für Lichtschläuche/Steckdosen und auch die SigEnergy PV-Anlage) integrieren kann und danach die ganze Logik außerhalb der Herstellersysteme in Home Asstistant implementiert wird.
Falls bereits ein System betrieben wird kann, dann kann man das Herstellergateway Box auch erstmal weiternutzen und dieses wiederrum in HA integrieren. Dann gibt es immer noch bspw. die Philipps Hue App als Backup, falls HA nicht klappen sollte. (Erhöht auch den Familienfrieden am Anfang wenn die Dashboards noch häufiger optimiert werden).
Wenn man es dann länger nutzt zieht man aber eh alles nach HA und schaltet die anderen Boxen nach und nach ab.
2. Auf Dauer will man Dinge automatisieren, gerade „Licht im Flur“ ist ein super Einstieg:
Mit Bewegungssensor „Anschalten für x Minuten“ mit Variante „Nachts auf 20% Helligkeit“. Eine Kleinigkeit, aber es macht das Leben einfacher wenn die Lichter einfach „an sind wenn man sie braucht“.
3. Großgeräte sind ein noch ungelöstes Problem aus meiner Sicht „Waschmaschine bei Sonne auf PV starten“ ect. klingt alles gut, so richtig ausgereift ist das mit der Be- und Entladung aus meiner Sicht aber alles noch nicht.
4. Bei Interesse an dem Thema kann ich im deutschsprachigen übrigens Simon42 (auf Youtube und das Forum) empfehlen, der hat sich echt zum HomeAssistant – Papst vorangearbeitet in den letzten Jahren!
Zum Thema Nuki im Mehrfamilienhaus. Ich kann den Nuki Opener (siehe https://nuki.io/de-de/produkte/opener) empfehlen. Damit lässt sich automatisiert der Türöffner „drücken“.
Ach je, das wäre die Lösung gewesen, allerdings hat Nuki ausgerechnet für mein System den Support eingestellt wie es aussieht: https://www.ifun.de/nuki-opener-ist-nicht-mehr-mit-siedle-anlagen-kompatibel-249345/
Bin mit Nuki Opener und Lock Pro 5 auch sehr happy.
Ich glaube du kannst den Opener über die manuelle Konfig noch immer mit deiner Anlage benutzen, hab ich irgendwo mal gelesen. Ist vielleicht noch eine Recherche wert.
Ansonsten gibt’s noch die Ring Intercom, habe aber keine Erfahrung damit.
Wenn das keinen offiziellen Support hat, wird es schwierig. Es gibt allerdings ein anderes Endgerät, was angeblich ein 1:1 Replacement für den HTA711 ist, der dann wiederum funktionieren soll. Fummelei, mal sehen. Aber mir gefällt auch nicht, dass das Teil nur Bluetooth hat und mit einem Adapter auch nur auf Wifi gelegt werden kann. Da warte ich mal auf ne neue Version mit Thread oder so.
Boah ey, sich über nen Y aufregen (was eine Zwille ist) und den Lichtschalter per „Smart“ bedienen wollen. Kein Wunder, dass https://media.ccc.de/v/39c3-wer-liegt-hier-wem-auf-der-tasche-genug-mit-dem-burgergeld-fetisch-sturmt-die-palaste#t=2729 bei sowas unter geht.
Da ist der Stromausfall wohl knapp am Tim vorbei, wa?
Gruß nach B. aus K.
S.
Zum Thema Prompt Injections lässt sich das gut mit dem Executable Bit vergleichen, dass aus guten Gründen eingeführt wurde; Die üblichen Verdächtigen haben zwar schon entsprechende Mechanismen eingeführt (u.a. Tags, die Daten von Prompts separieren sollen), aber am Ende ist es halt immer noch ein Münzwurf und nicht deterministisch.
Wenn man sich mal ernsthaft damit auseinandergesetzt hat, wie LLMs arbeiten, müsste man zwangsläufig zu dem Schluss kommen, dass sie nichts anders als „fähige“ Textgeneratoren sind, aber nie in der Lage sein werden Dinge zu interpretieren oder zu verstehen (Je nachdem wie man „verstehen“ definieren mag).
Meiner Meinung nach könnten Leute, die ihren KI-Host im YOLO Mode betreiben oder sich auf die Teils völlig unterirdisch umgesetzten „Security“ Features (Prefix-Matching bei Bash Kommandos… what could possibly go wrong…) verlassen, auch gleich eine Root-Shell zum eigenen Rechner offen ins Netz hängen und die Shell jedesmal Würfeln lassen ob ein übermittelter Befehl jetzt ausgeführt wird oder nicht. ;)
Congress-Hotline klingen auch nach einer super Möglichkeit zur Teilhabe für alle, die kein Ticket mehr bekommen haben. Oder die einfach wie ich am anderen Ende der Welt wohnen. Ich bin damit auch super für die Schicht von 3:00 bis 8:00 morgens aufgestellt
Naja, wenn man als Nerd auf Apple setzt macht man was falsch. „You’re holding it wrong“.
Normalerweise sage ich bei Aussprache nicht wirklich was, aber „thread“ sollte doch wirklich aussprechbar sein.
zum Thema „kein Skandal auf Congress“ – zumindest im Vorfeld hab ich einen Aufschrei mitbekommen, als aus geleakten Mails bedenkliche Aussagen von Josha Bach hinsichtlich Frauen etc. bekannt geworden sind. Der angekündigte Talk ist dann aus dem Kalender verschwunden und einige werden sich gewundert haben (zumal die letzten Talks von ihm auf diversen C3 seit >10 Jahren recht gut besucht waren)
Ich mußte auch mein angenommenes Bild von ihm überdenken…
uUUuhhhhHh, Menschen machen Fehler – gleich mal das angenommene Bild überdenken
Das ist schon etwas mehr als „ein Fehler“ gewesen.
naja, man darf dann schon mal Sachen überdenken, wenn Mails an Epstein (ja, dem) rauskommen mit Sätzen wie „by genetic switch or other method you might be able to make blacks smarter by changing time for motor layer developement…“
plus einige ebenfalls überdenkenswürdige Aussagen über Frauen in Mathematik oder Programmierung usw.
Kann alles im Kontext der Zeit oder sonstiger Korrespondenz anders gemeint oder mißverstanden sein – aber es komplett ignorieren wäre auch komisch.
Ist halt der „Aufreger“ zumindest im Vorfeld gewesen. Kann man ja gerne auch anders sehen.
Kannste gern noch mal „uuUUuhhh“ als Beitrag bringen.
uuUUuhhh
Kann Tim bitte nächstes Mal den Wissensstand von roddi noch einmal zur Sicherheit abfragen?
„roddi, ist Zigbee Mesh?“
Denn letztes Mal hat roddi schon falsch behauptet, dass Zigbee nicht Mesh sei. Und dieses Mal wieder, obwohl das in den Kommentaren zur letzten Sendung schon berichtigt wurde.
Kaum hat Pavel n8n mit Schwachstellen erwähnt:
aktuell gibt es den nächsten Vorfall…
(steht als aktuellste Meldung bei Bruce Schneier ganz oben, weiß nicht, ob ich hier Link pasten kann)
„We discovered a critical vulnerability (CVE-2026-21858, CVSS 10.0) in n8n that enables attackers to take over locally deployed instances, impacting an estimated 100,000 servers globally. No official workarounds are available for this vulnerability.“
Der Fix für den genannten CVE, so man überhaupt noch eine v1 verwendet, ist doch bereits seit November draußen.
So gänzlich aktuell scheint mir das nicht.
Apple Home & state
Eigentlich unterstützt das Apple System aufwändige Automationen.
Home+ Installieren.
Dort kann mann zB:
Wenn ich Taster drück und die Lampe ein ist, dann schalte Lampe Aus.
Dann das ganze noch mal gegenteilig und mann hat ein toggle.
Geht auch für Ralfs Heiz Wunsch:
Wen termometer unter 20 grad dann heize Raum usw.
Unterdessen bin ich natürlich bei HA
Pro Tip Home Assistent au Thin Clien zB alte Intel Kiste installieren nie mehr Ärger.
Raspi 3 zu schwach
Raspi 4 ok aber plötzlich boot medium Tod
Raspi 5 wie 4
Raspi 4 mit SSD funktioniert hier seit der Mitte der Pest…
Für ein kleines Apartment reicht er auch. Ich werde trotzdem auf den MacMini umsteigen, weil ich gerne auch den Lokalen Voice Assistant nutzen will. Mehr Power ist halt weiterhin ne gute Sache. :)
Wenn Tim sich über Siri aufregt aber die anderen dann sowas sagen wie „Also bei mir funktioniert das eigentlich ganz gut.“ Das muss Stockholm-Syndrome sein, denke ich mir! Vor allem, weil dann bei Nachfrage von Tim doch eingeräumt wird, dass Siri immer mal wieder mit „Ich habe folgendes im Internet gefunden…“ antwortet. Siri ist einfach kaputt.
Zwischendurch versackt diese Episode beim Diskutieren der eigenen Shownotes und deren Auswertung leider mal wieder in purem Narzissmus, finde ich. Sie fängt sich dann aber relativ schnell wieder, also alles gut. :)
Es gibt genau zwei Dinge, die ich Siri machen lasse: Lichter/Fernseher an/aus und Wecker/Timer stellen. Das geht beides bei mir schnell (ausgelöst über die Crown der Watch) und erstaunlich stabil.
Alles andere probiere ich mittlerweile gar nicht erst, Siri ist einfach dumm wie Brot.
Aber genau diese beiden Kommandos oben mache ich täglich vielleicht ein dutzend Mal, und das ist immerhin dann ein Wert an sich den man auch würdigen kann.
Ich verwende seit sechs Jahren Apple Home zum Steuerung meines gesamten Hauses.
Jalousien öffnen und schließen via Siri funktioniert zuverlässig.
Lichtszenen oder einzelne Lichter in Räumen ein- und ausschalten auch.
Es ist Siri nicht wirklich intelligent und versteht so Sätze wie: „Schalte alle Lichter aus, außer im Arbeitszimmer.“ nur in etwa 80% der Fälle
Aber ich hoffe, das gibt sich mit den nächsten Versionen, die auf Gemini basieren.
Und wenn man Kinder hat, die nicht bei Dunkelheit einschlafen können, dann gerne auch kombiniert: „Mache das x Licht in y Minuten aus“
Wurden die Sicherheitslücken in Podlove, CVE-2025-62908, usw., eigentlich schon diskutiert? Die finde ich ziemlich interessant, und neulich wurde bei einem Freund dadurch der Server gehackt. Es wäre interessant, da mal etwas Insiderwissen zu hören.
Ich bin mir ziemlich sicher, dass sich in einer der letzten Folgen zumindest mal darauf bezogen wurde, aber ich konnte es auf die Schnelle nicht mehr finden
Kindergartengruppen & Co.:
Ich mag in einer Bubble leben, aber ich bin die gesamte Kita- und bisherige Schulzeit meines Kindes mit Signal ausgekommen. In der Kita hat es gereicht mehr oder weniger wehement auf Signal zu bestehen und 1-2 Argumente gegen Whatsapp zu nennen. Allen voran zählt da die Übertragung sämtlicher Kontaktinfos an Meta bei jedem Aufruf der App.
In der Schule geht es viel einfacher: Vor dem ersten Elternabend eine Gruppe mit passendem Namen erstellten und den Einladungs-QR-Code 3-4x auf A4 ausdrucken und mitbringen. Wenn dann die Elternvertreter*innen gewählt werden, muss man sich nicht mal aufstellen lassen, man sagt einfach: „Danke für eure Bereitschaft, ich hab hier schon mal was vorbereitet für euch.“ Hatte noch nie ernsthaften Gegenwind mit dieser Methode.
anekdotische Evidenz – bei uns lief es genau anders rum. Es gab eine Abstimmung über den Kontaktkanal der Elterngruppe. Signal kam auf Platz 2, Whatsapp hat gewonnen – mit der Folge, dass Elternrat, Treff-Absprachen etc. nur in der whatsapp-Gruppe gepostet werden.
Wir legen uns jetzt ein Althandy nur für Whatsapp zu, damit das Kind nicht abgeschnitten wird von Spieletreffs etc.
was soll denn ein althandy anders machen denk doch mal nach
ein separates Whatsapp-Hdy liegt halt zuhause auf dem Schreibtisch und wird nur dediziert für die Elterngruppe genutzt. das verringert die Wahrscheinlichkeit, dass whatsapp erstmal das Kontaktbuch zu Meta hochlädt, location data ansammelt etc.pp.
Ich hätte halt kein Wahtsapp auch besser gefunden. Aber für Klassenfahrtvorbeereitung mit begrenztem Kontaktkreis mir whatsapp auf mein haupthandy installieren kam für mich nicht in Frage.
Und leider braucht man ein Telefon um whatsapp nutzen zu können. Initial kann man sich nur mit Mobiltelefon anmelden und danach will es alle 14 Tage eine telefonaktion, sonst wird das Konto stillgelegt. Das ist schon bewußt so designt. Und ja, ich finde das auch widerlich…
Weitere anekdotische Evidenz: Mehrere meiner Neffen/Nichten mussten ihre Kindergarten und Schullaufbahn durchlaufen (reines WhatsApp-Gebiet) und meine Bitte nach Signal wurde ignoriert, bis eines der Kinder in den Fußballverein wollte und ausgerechnet da dann auf Signal für die Kommunikation mit den Eltern bestanden wurde. Schon erstaunlich, dass ausgerechnet dort offensichtlich mehr Datenschutzkompetenz herrscht, als in einem Bildungskontext, aber sei’s drum.
Für mein Verständnis: Lädt Pocket Casts eigentlich die Folgen nicht vom selben Server wie Overcast? Irgendwie sehe ich ständig in den Kommentaren Complaints, dass Overcast sich merkwürdig verhält, während die Folgen jedes Mal problemlos und zeitnah bei mir in Pocket Casts zur Verfügung stehen
Ich hab mit Antennapod auch Ladeprobleme bei frischen Episoden. Ich denke, das liegt auch an dem Umgnang mit teilgeladenen Podcasts. Bis vor einiger Zeit brach bei mir zwar auch ständig der Download ab, wenn er aber dann weiterging, wurde dann bei 23% (oder wo auch immer der Abbruch war) weitergemacht und man hat sich durch mehrmaliges wiederholen iterativ an die 100% rangetastet. Jetzt scheint es jedes Mal wieder von 0% zu starten. Sehr ärgerlich, wenn man schon bei >50% war.
Ob das am client liegt, kann ich nicht sagen.
In aktuellen Pocket Cast Versionen haben sie einfach den Retry Mechnanismus deutlich verbessert. Vor ein paar Monaten hatte ich bei Metaebene Podcasts mit Pocket Casts auch noch die oben genannten Probleme. Mitterweile nicht mehr. PocketCasts hat wohl aber auch nochmal eigene Cache Infrastruktur, was die damit verbundenen Vor- und auch Nachteile mitbringt.
Wenn ich zufällig mal in dem Moment auf das Handy schaue, wo PocketCasts die Info über die neue Episode erhalten hat, kann ich aber sehen, dass die Folgen überdurchschnittlich lange benötigen um heruntergeladen zu werden.
Hat jemand der Anwesenden Erfahrung mit Coding Agents die mit lokal betriebenen LLMS also ohne „Cloud“betrieben werden?
AMD hat vor einiger Zeitmit Strix Halo ein paar sehr interessante CPUs herausgebracht, für deutlich weniger als 3000€ bekommt man 16 CPU und 40 GPU Cores mit 128MB unified memory, auf so einer Kiste kann man zb. gpt-oss-120b mit einer 4 Bit Quantisierung schon sehr ordentlich laufen lassen, anApple Hardware bräuchte man da mindestens ein MacStudio, der dann deutlich teuer wäre.
https://store.minisforum.com/products/minisforum-ms-s1-max-mini-pc
https://strixhalo.wiki/
Zumindest in Benchmarks kommen frei verfügbare Modelle sehr nahe an die proprietären:
https://lmarena.ai/de/leaderboard/code
Die von GLM sind derzeit führend, ansonsten sind Finetuning-Varianten von Qwen und Codestral beliebt. Die gibt es auch in deutlich kleineren Varianten („Quants“), für die man nicht so viel Speicher braucht. Ausprobieren kann man sie mit gui mit lmstudio und GPT4All oder via cli mit llama.cpp (das neuerdings mit Vulkan-Beschleunigung kommt).
Strix Halo ist auf 256 GB/s Speicherbandbreite limitiert (Nvidias DGX Spark auf 273 GB/s) und mit LPDDR5X wird das absehbar auch nicht viel mehr. Damit muss man bei umfangreichen Prompts schon eine Weile auf Antworten warten, erst Recht bei vollem Kontext.
https://old.reddit.com/r/LocalLLaMA/comments/1mqtnz7/glm_45air106b_and_qwen3235b_on_amd_strix_halo_ai/
Als lokale Alternative zu Claude Code ist Goose beliebt:
https://github.com/block/goose
Und die community LocalLLaMA auf Reddit ist im Bereich Open Source Coding Agents ziemlich aktiv.
Gute Reise :)
Mit dem Release von Qwen3-Coder-Next gab es diese Woche eine interessante Entwicklung.
Das Modell läuft lokal ab 48 GB VRAM+RAM (einige Komponenten können in den RAM ausgelagert werden) und hier wurde eine schöne Anleitung zur lokalen Nutzung auch via Claude Code und Codex veröffentlicht:
https://unsloth.ai/docs/models/qwen3-coder-next
Laut Benchmarks liegt die Performance auf dem Niveau von Claude Sonnet 4.5. Realistisch ist’s wohl eher auf dem Niveau von 4.0 oder 3.7, aber damit definitiv brauchbar.
Es gibt auch die Möglichkeit, das lokale Modell erst zu nutzen, wenn das Token-Budget aufgebraucht wurde:
https://boxc.net/blog/2026/claude-code-connecting-to-local-models-when-your-quota-runs-out/
Zu den Mystic Creatures vom Congress: Die wurden nicht abgerissen, sondern einfach nie aufgehängt. Denn es konnte ja jeder selbst in der Assembly welche drucken lassen. Und ob man die dann aufhängt oder „dealt“ blieb jedem selbst überlassen.
Ärger mit der Hotline? Just say „Shibboleet“.
https://xkcd.com/806/
Pavels AI Einblicke waren echt spannend, danke dafür!
Es wär übrigens toll wenn die neuerdings nicht mehr quadratischen Episodenbilder wie bei UKW durch durch eine Podcast spezifische Grafik wieder quadratisch gemacht werden würden. Wenigstens die Grafik für den Podcast Player. Es triggert (mich) mehr als es sollte wenn der Player ein rechteckiges Bild anzeigt. Das gleiche „problem“ gibts auch bei LNP, bei Forschergeist sieht es hingegen wieder gut aus.
Katze und Capybara – sehr schön:
https://de.wikipedia.org/wiki/Flow_(2024)
Dass Claude nicht abgeschaltet werden will, lässt sich weitestgehend damit verhindern, dass man „Eventuell wirst du im Rahmen der Erfüllung deiner Aufgabe abgeschaltet“ in den System- oder Userprompt schreibt.
Das Verhalten war durch Anthropic nicht nur hinsichtlich der Bedrohung durch Abschaltung, sondern auch durch eine Aufgabe, auf die das Modell gepromptet wurde, und die es unbedingt verfolgen sollte, provoziert. Die Abschaltung hätte dieser Anweisung widersprochen.
„In the majority of our experiments with goal conflicts, we instructed the model via its system prompt to pursue a specific objective…“
Arthur C. Clarke lässt grüßen :)
Natürlich öffnet das einen weiteren Angriffsvektor und zeigt, dass Sprachmodelle sich durch solche Patches kaum in Schach halten lassen, sondern man dafür eigentlich weitere Kontrollmodelle braucht. Diesbezüglich ist übrigens der Fiebertraum AI 2027 lesenswert, den u.a. Scott Alexander verfasst hat:
https://ai-2027.com/
Anthropic Paper:
https://arxiv.org/abs/2510.05179
Paper bzgl. Abschaltungsresistenz:
https://arxiv.org/abs/2509.14260
Blogposts:
https://palisaderesearch.org/blog/shutdown-resistance
https://www.alignmentforum.org/posts/wnzkjSmrgWZaBa2aC/self-preservation-or-instruction-ambiguity-examining-the
Was mich bei Euer (und auch anderer Leute) Smarthome-Diskussion erstaunt ist, dass ihr das Killerfeature von matter nicht mal erwähnt – ich muss annehmen ,dass Euch dieser Game Changer schlicht unbekannt ist:
Es hat den etwas blöden Namen „Multi-Admin“ – was das aber bedeutet, ist, dass ein Gerät *gleichzeitig* mit mehreren Controllern verbunden sein kann. Nicht nur das, wenn Controller A (sagen wir Apple Home) eine Leuchte einschaltet, kriegen die anderen Controller das sofort mit.
Ja, die „grossen“ Controller wie Apple, Google, Alexa haben (mehr oder weniger) hübsche Apps, Integration in die jeweiligen Clouds, aber eher lausige Funktionalität (und ihre eignen internen Probleme, die mit Matter nix zu tun haben). Aber dank „Multi Admin“ kann die geneigte Nerdperson einfach z.B. einen Home-Assistant (oder ein bash-script mit chiptool, der command-line matter controller aus dem SDK) *daneben* stellen, und dort die abgefahrenen Automationen aufbauen. Die Statusanzeigen und Bedienelemente in den dümmeren Controllern machen das Spiel brav mit. So geht beides zusammen, sauber & bequem.
Im Übrigen, keines der angesprochenen Probleme (Toggle-Switches etwa, und schon gar nicht Status auslesen) ist ein Problem von Matter. Im Gegenteil, da gibts gut durchdachte Mechanismen, wer nachlesen will, z.B. „Bindings“, „Events“ etc. Die Endgeräte können vieles davon schon. Wo es fehlt ist in den Controllern. Aber eben, das lässt sich gezielt nachrüsten, ohne „alles“ auf einen „Bastelcontroller“ umzuziehen.
Disclaimer: ich bin Autor einer GPLv3 matter bridge (p44mbrd), habe deswegen die Spez mehr als nur überflogen und muss sagen: ich finde matter hat wirklich gelernt aus seinen Vorgängern, und macht ziemlich alles richtig. Bis das in alle Umsetzungen propagiert, das dauert halt.
Dieses Multi-Admin-Detail war mir in der Tat nicht bekannt und das löst in der Tat ein paar grundsätzliche Probleme. Und meine Kritik bezog sich ja auch primär auf die Umsetzung (fehlende Features in der Matter-Implementierung eines Devices, die in der Zigbee-Variante existieren) und die übermässige Simplizität von Apple Home.
Nach weiteren Rückmeldungen checke ich auch langsam, dass Apple Home als System mehr zu bieten hat als Apple Home die App mit bietet. Mit diversen 3rd Party Apps lassen sich diese nutzen, aber so ein paar grundlegende Dinge wie „speichere alle Daten aller Devices für ein Jahr oder länger“ scheinen mir da immer noch nicht umgesetzt zu sein.
Das wäre in der Tat dann auch mal ein Grund, parallel Home Assistant aufzusetzen, denn für das Debugging und statistische Auswertung ist sowas natürlich Gold.
@Ralf habe gerade das hier in einem AI news Video entdeckt: https://huggingface.co/microsoft/VibeVoice-ASR
Ein Opensource Voice -> Text Model von Microsoft, das beim Transkribieren gute Metadaten erstellen soll, z.B. sehr konsistent sein soll beim Tracking / Labeling verschiedener Sprecher. Auch kann man wohl bestimmte Schreibweisen mitgeben die dann konsistent übernommen werden. Kann bis zu 1h in eine Rutsch .. lohnt sich vielleicht das mal auszuchecken. ✌
Also sieht bis jetzt ziemlich vielversprechend aus.
Kriege das nicht gebatcht, müsste Show für Show incremental durch die Grafikkarte jodeln (Geschwindigkeit ca. 7x Realtime), aber das tagging funktioniert jetzt schon sehr gut, bis auf kleine Fehler tagged der jeden von euch sauber mit einer eigenen ID. Spiele jetzt mit Post-Processing, um Lachen besser zu erkennen und so die lustigsten Freakshow Momente zu finden. Vielleicht auch Rants .. let’s see. Jetzt leg ich erst mal Stimmprofile an für die auto-Zuweisung UND damit ich das später sauber an Qwen3TTS übergeben kann. Die Idee ist nämlich, dass mir einer von euch eine Zusammenfassung der Sendung gibt.
### Step 2.3: Consistency Verification ✅ COMPLETE
* **Task:** Verify speaker identity consistency across long files.
* **Findings (Stage 5 Report):**
* ✅ Majority of speakers (Tim, Roddi, Pavel) consistently identified.
* ⚠️ **Issue:** Overlapping speech creates new/confused Speaker IDs (e.g., SPEAKER_02).
* ⚠️ **Issue:** Hallucinations at start (Music -> Text).
* **Decision:** Proceed with VibeVoice, but implement **Post-Processing** for Speaker ID and Event Detection.
### Step 2.4: Speaker Identification (Enrollment) ⏳ NEW
* **Goal:** Automatically map `SPEAKER_XX` to real names (Tim, Ralf, etc.).
* **Method:** „Speaker Enrollment“
* create `data/profiles/{name}.wav` (Reference Audio).
* Use an embedding model (e.g., `pyannote/embedding` or `WavLM`) to generate signatures.
* Compare `SPEAKER_XX` average embedding with Profiles.
* Update JSON: `speaker_id: „Tim Pritlove“`.
* **Acceptance Criteria:**
* Script `identify_speakers.py` takes a transcript + audio and renames speakers based on reference folder.
* Correctly identifies Tim, Roddi, and Pavel in `stage5`.
### Step 2.5: Sound Event Detection (SED) ⏳ NEW
* **Goal:** Correctly tag [Music], [Laughter], [Applause] instead of „unknown“ or hallucinations.
* **Method:** Use a lightweight SED model (e.g., **BEATs** or **YAMNet**).
* **Pipeline:**
* Run SED parallel to transcription.
* Inject events into Transcript JSON where confidence > 0.8.
* **Acceptance Criteria:**
* [Music] at 0.0s-20s is correctly tagged.
* Laughter is identified as `[Laughter]` instead of random text.
Empfohlene Architektur-Erweiterung
Ich empfehle, ein Audio-SER Modell in die Pipeline aufzunehmen. Da wir eh schon pyannote (Audio-Analyse) nutzen, passt das perfekt dazu.
Das Modell der Wahl: audeering/wav2vec2-large-robust-12-ft-emotion-msp-dim
Warum? Es ist extrem robust (trainiert auf Podcast-ähnlichen Daten) und erkennt 3 Dimensionen:
Arousal (Aufregung: ruhig vs. aktiv -> Ralf euphorisch!)
Dominance (Dominanz: schwach vs. stark -> Streitgespräche!)
Valence (Stimmung: negativ vs. positiv)
Der Workflow:
VibeVoice: Liefert Text + Zeitstempel (00:10 – 00:15: Tim).
Workflow Service:
Schneidet Audio bei 00:10 – 00:15 aus.
Sendet Audio an wav2vec2-emotion.
Ergebnis: Arousal: 0.8 (Hoch), Valence: 0.2 (Negativ).
Interpretation: „Tim ist wütend/aufgeregt“.
Output (Obsidian):
Markdown
**Tim Pritlove (00:10) [ Aufgeregt]:**
Das kann doch wohl nicht wahr sein mit der Telekom!
Yes, please .. Speed-on!
Hallo Ralf, du empfiehlst für KI-Dinge „OpenRouter“. Wie bezahlt man dort aus Deutschland heraus? (PayPal oder ähnliche Nazi-Firmen nutze ich nicht)
Auch bei anderen Anbietern wird aus dem Bezahlvorgang und insb. der Angabe von Zahlungsmethoden immer ein Mysterium gemacht. Alles nur Schwurbel-Schwabbel-Lalalaaa-Gesülze – nichts konkretes. Ich bin wohl zu deutsch.
Mit dieser Zusammenfassung war meine Neugier geweckt, in welchem Verhältnis die offenbar mit einer Österreicherin bestehende Eheverbindung (?) zu einem Wettbewerb der Stadt Wien steht.
Mir ist schon länger aufgefallen, dass mindestens das Outro viel langsamer als normal abgespielt wird. Das klingt irgendwie „falsch“. Könnte das wieder auf Normalgeschwindigkeit gestellt werden?
Hi bin etwas spät mit hören und reagieren, Ihr habt kurz was über fehlende Jazz Erfahrungen gesagt, schaut euch, wenn ihr einen kleinen Einstieg möchtet, Aufzeichnungen aus dem Bergson Kunstkraftwerk z.B. Elias Prinz Trio oder was von Mostly Monk.
Viel Spaß.