this post was submitted on 22 Feb 2026
70 points (100.0% liked)
DACH - Deutschsprachige Community für Deutschland, Österreich, Schweiz
4950 readers
345 users here now
Das Sammelbecken auf feddit.org für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.
Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:
___
Zusätzliche Regeln aus „Lessons learned":
- Postet hier zu allen Themen, die euch interessieren (soweit sie den anderen Regeln genügen)
- Es werden Posts zum Thema Palästina/Israel hier auf Dach gelöscht.
- Dasselbe gilt für Wahlumfragen à la Sonntagsumfrage.
- Bitte Titel von Posts nur sinnerweiternd und nicht sinnentstellend verändern. Eigene Meinungen gehören in den Superkommentar oder noch besser in einen eigenen Kommentar darunter.
- Youtube Videos bitte nicht ohne eine zusätzliche Zusammenfassung posten
___
Einsteigertipps für Neue gibt es hier.
___
Eine ausführliche Sidebar mit den Serverregeln usw. findet ihr auf der Startseite von feddit.org
___
founded 2 years ago
MODERATORS
you are viewing a single comment's thread
view the rest of the comments
view the rest of the comments
Übrigens fällt dieser Beitrag (und einige weitere hier im Faden) exakt in das Muster, das ich erst heute morgen in meinem Kommentar auf c/programning@programning.dev als eine weitere Marketing-Strategie unter einem Arsenal von Strategien beschrieben habe, mit der versucht wird GenAI unter Softwareentwicklern an den Mann, bzw an die Frau zu bringen:
Belege für diese angeblichen Vorteile gibt es nie.
Eindeutige Untersuchungen, die z.B. Vorteile für erfahrene Entwickler belegen, gibt es nicht.
Offizielle Angaben, wozu KI nun gut geeignet sein soll und wozu nicht, gibt es keine.
Das ist letztlich eine Variante von "moving the goal posts".
Ich beschreibe hier lediglich meine eigenen Erfahrungen - ich halte nicht viel davon Dinge blind zu hassen ohne sich das naeher angeschaut zu haben. I spiele seit etwa drei Jahren mit LLMs, hauptsaechlich auf lokaler Hardware. Die letzten Monate kamen Claude credits dazu weil es fuer bestimmte Probleme tatsaechlich Sinn gemacht hat.
Mein Hauptproblem mit LLMs ist der massive Energieaufwand, vor allem fuer Training - da sollte reguliert werden dass das zwingend erneuerbare Energien sein muessen (und zwar dafuer neu gebaut, nicht bestehende), und entsprechende Strafzoelle auf Benutzung von LLMs ausserhalb von EU wo wir nicht regulieren koennen. Das naechste ist dass der aktuelle Hype zum einen eine unnoetige Investitionsblase ist, zum anderen dann ohne Nachzudenken ueberall LLMs eingebaut werden, ohne dass verstanden wird zu welchem Zweck, oder auch wie das Fehlerverhalten ist. Zu Fehlerverhalten bei Codegenerierung habe ich oben ja was geschrieben - ich hab bisher grob 100EUR an Claude Credits verbrannt einfach nur um zu beobachten wie das Ding versucht weiterzumachen wenn es steckenbleibt (tl;dr: in dem Fall ist es praktisch immer besser das von Hand zu machen - teilweise ist es klar billiger, und ansonsten wird ziemlich sicher der erzeugte Code scheisse sein, bzw, deutlich zu viel neu schreiben).
Ich gehe davon aus dass wir langfristig mit LLMs arbeiten werden - aber sicher >95% der aktuellen Einsatzzwecke ein Platzen der Investitionsblase nicht ueberleben werden, aus einer Kombination von "das war von Anfang an doof" und "nachdem die jetzt tatsaechliche Kosten bezahlt haben wollen ist das zu teuer". Ich gehe auch nicht davon aus dass bei Bezug auf Code wir eine Verbesserung ueber die 10k-20k LOC sehen werden - auch um das zu erreichen steigt die Koordinationsarbeit vom Menschen um die relevanten Informationen im Context Window zu halten, und ein Vorhalten von nennenswert groesseren Context Windows wuerde das zu sehr verteuern.
Ich wuerde darauf tippen dass generell das Generieren von Code mit Ende der Blase deutlich weniger werden wird - das duerfte sich dann nur noch bei Modellen lohnen die man lokal laufen lassen kann. Bei Reverse Engineering und aehnlichen Analysen wuerde ich erwarten dass das weiterhin viel genutzt wird - da sind heute schon lokale Modelle recht nuetzlich.
Da gibt es bei mir zwei Aspekte:
Beim Ausgangspost ging es darum, dass ein genaues Verständnis des Codes in der Softwareentwicklung wesentlich ist, und dass der Zeitanteil für die Codeeingabe so gering ist, dass selbst eine völlig automatisierte Eingabe Softwareentwicklung gar nicht nennenswert beschleuniglen kann. Gibt es irgendwelche Evidenz, dass das nicht so ist?
Hatte ich doch geschrieben - ich habe diverse Tools die mich etwa 2-3 Wochen Arbeit gekoestet haetten, und ich so in knapp unter einer Woche gebaut habe. Mit Aufarbeiten des Codes damit er wartbar ist - fuer Wegwerftools ist das etwa ein Tag. Weitere Entwicklung danach mach ich manuell, da taugt das nicht fuer, unter anderem wegen fehlendem Codeverstaendnis fuer das was er generiert hat. Hauptarbeit ist auch das so zu lenken dass wartbarer Code rauskommt.
Ergebnis haengt auch sehr stark von der Sprache ab - ich hatte mit Abstand die besten Ergebnisse mit elisp (und mir da auch diverse Sachen gebastelt fuer die ich sonst keine Zeit gehabt haette). Das hilft da deutlich dass es durch den lisp-interpreter gute Fehlermeldungen gibt, und die eingebaute Dokumentation exzellent ist. Da die Welt wohl leider nicht auf Emacs umsteigen wird ist das allerdings fuer die meisten Leute wohl eher nicht relevant.
Deine persönliche Anekdote ist keine Evidenz, weil die Nutzung von KI/GenAI es offensichtlich auch erschwert, den dadurch entstandenen Zeitaufwand realistisch einzuschätzen.
Da gibt es die METR Studie mit erfahrenen Open Source Entwicklern:
https://metr.org/blog/2025-07-10-early-2025-ai-experienced-os-dev-study/
Der Knackpunkt ist, dass die Leute an ihnen gut bekannten Projekten gearbeitet haben unf auch Erfahrung mit KI Nutzung hatten.
Die hatten definierte Tasks und wurden vor dem Beginn der Arbeit gefragt, wie sie denn Zeitaufwand schätzen. Dann wurde zufällig festgelegt, ob sie für diese Task KI nutzen oder nicht. Nach Beendigung der Task wurden sie noch mal gefragt, ob sie glauben dass KI ihnen geholfen hat.
Ergebnis war, dass die Leute geglaubt haben, dass es mit KI schneller geht, dass sie aber objektiv in der Statistik deutlich(!) länger gebraucht haben, als sie geschätzt haben, dass die Aufgaben ohne KI statistisch schneller gingen, und dass sie trotzdem hinterher immer noch glaubten, dass es mit KI schneller sei.
So eine Wahrnehnungsverzerrung macht subjektive Anekdoten wertlos.
Und aus genau solchen Gründen arbeitet man in der Medizin oft mit Doppelblindversuchen und so weiter.
Weiter so - lass dich nicht entmutigen :-)
Es gibt zu viele Menschen die blind KI haten weil es neu ist und Arbeitsplätze gefährdet. Der Weg in die Zukunft ist ein Bedingungsloses Grundeinkommen, nicht ein Festhalten an Jobs und einer damit einhergehenden Blindheit für die Potenziale von KI, die durchaus beachtlich sind.