MRMCD 2025

Spaß am Gerät trotz KI
2025-09-12 , C120 - Art. 15 GDPR
Language: Deutsch

Dass gute LLMs erst durch riesige, intransparente und ethisch fragwürdige Datensätze möglich werden,
glauben die großen KI-Anbieter heute alle. Dass generative KI für alle kreativen Tätigkeiten den Menschen erstzen kann, setzt sich als Trugschluss langsam auch bei mittleren Unternehmen durch. Dass durch AI-Einsatz die Suchmaschine überflüssig wird, glauben Google und Microsoft heute mit ihren "intelligenten Assistenten" beweisen zu müssen. Dass die AI-Agenten nun in jedes Softwareprodukt integriert werden sollen, wird durch die nun einsetzenden Updatekampagnen klar.
Dass man trotzalledem mit kleinen lokalen KI-Modellen, die keine zentralisierten Großrechenzentren erfordern, Spaß am Gerät haben kann, glaube ich.


Generative KI bedeutet: Modelle in die keiner rein-schauen kann, trainiert auf Datensätzen die irgendwie aus dem Internet zusammengeklau(b)t wurden, erzeugen einen Output von dem niemand so genau weiß wie er zustande kam. Transparenz geht anders.
Dazu kommen Armeen von Scrapern, die robots.txt ignorieren kleine Webserver einfach platt machen, der Energieverbrauch, der Ressourcenverbrauch und die Armeen von Gigworkern die Daten vor-sortieren müssen. Obendrauf kommen dann noch die Träum von Managern, dass sie all ihre Programmierer, Übersetzer, Autoren und Künstler durch ein billiges AI-Modell ersetzen können. Generative KI ist wirklich keine Technologie die Spaß macht.
Mit der Hackerbrille betrachtet wird es nicht besser: Alles passiert komplett intransparenten SaaS-Blackboxen und wenn man die wirklich interessanten Anfragen stellt ist plötzlich der API-Zugang weg. Spaß am Gerät nur sehr eingeschränkt möglich.

Leider ist es eine Technologie die nicht einfach wieder verschwinden wird. Wir werden uns noch lange mit ihren Folgen herum ärgern müssen. Frei nach Nam June Paik: "I use technology in order to hate it more properly." habe ich vor ungefähr einem Jahr beschlossen, wenn ich mich schon permanent über neue Technologien aufregen muss, will ich sie wenigstens verstehen. Das Ende diese Kaninchenbaus ist noch nicht in Sicht, aber ich möchte schon mal ein paar der Yaks vorstellen die unterwegs geschoren wurden.

Wir starten mit der Hardware die man braucht um selber Zuhause oder im Hackerspace mit größeren KI-Modellen experimentieren zu können. Elektroschrott von Ebay oder doch brandneue spezielle Hardware?
Als echter Hacker habe ich die Elektroschrott-Route ausführlich getestet und werde natürlich von meinen Schmerzen Erfahrungen berichten.
Danach gibt es einen Crash-Kurs wie der Software-Stack einer typischen KI-Anwendung aussieht: Retrival Augmented Generation und Model Context Protocol eröffnen dem geneigten Datenreisenden sehr viele Möglichkeiten durch gezieltes zerforschen ungeplante Transparenz zu schaffen.
Zum Schluss beschäftigen wir uns nochmal im Detail mit LLMs und wie man sie dazu bringt ihre Prinzipien zu vergessen und wie man sie mit defekten Logikrätseln in eine Sinn-Krise stürzen kann.

Ehemaliger embedded-Frickler der sich an einem großen Forschungsinstitut das Team Neural Architecture Search im Bereich für High Perfomance Computing infiltriert hat. Noch hat da keiner gemerkt, dass ich eigentlich keine Ahnung von KI habe...