this post was submitted on 01 Dec 2025
23 points (96.0% liked)
DACH - Deutschsprachige Community für Deutschland, Österreich, Schweiz
5044 readers
500 users here now
Das Sammelbecken auf feddit.org für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.
Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:
___
Zusätzliche Regeln aus „Lessons learned":
- Postet hier zu allen Themen, die euch interessieren (soweit sie den anderen Regeln genügen)
- Es werden Posts zum Thema Nahost / Palästina/Israel hier auf Dach gelöscht.
- Dasselbe gilt für Wahlumfragen à la Sonntagsumfrage.
- Bitte Titel von Posts nur sinnerweiternd und nicht sinnentstellend verändern. Eigene Meinungen gehören in den Superkommentar oder noch besser in einen eigenen Kommentar darunter.
- Youtube Videos bitte nicht ohne eine zusätzliche Zusammenfassung posten
___
Einsteigertipps für Neue gibt es hier.
___
Eine ausführliche Sidebar mit den Serverregeln usw. findet ihr auf der Startseite von feddit.org
___
founded 2 years ago
MODERATORS
you are viewing a single comment's thread
view the rest of the comments
view the rest of the comments
Da mag es spezialisierte Angebote geben, die letztendlich nur eine strikt begrenzte Auswahl an Antworten des Chat-Bots erlauben aber bei allem anderen bin ich als Laie erst mal eher skeptisch. Ich habe gerade erst einen Blog-Artikel zu dem generellen Thema gelesen und der Autor hatte ein gutes Beispiel:
Z.B. so ein Coding-Assistant. Der ist super. Das Problem mit dem ist halt, dass am Ende vor dem Bildschirm ein Experte (erfahrener Programmierer) sitzen muss, der in der Lage ist, die aus Prinzip nicht vermeidbaren Halluzinationen (Sicherheitslöcher, Logik-Fehler, ...) zu erkennen und selbst zu fixen.
Übertragen auf die Situation Therapeuten-LLM vs Patient wäre das, dass der Patient selbst geschulter Psychologe sein müsste. Das Problem kann man über irgendwelche speziellen Agenten minimieren aber nie auf Null bringen. Es gibt bestimmt vieles wo so etwas reicht aber im Endeffekt klebt das doch nur ein Pflaster auf das eigentliche Problem: Zu wenig Therapieplätze.
Danke für das Teilen.
Edit:
Zu dem Thema gab es vor kurzem erst einen Artikel in der NY Times.
A Teen Was Suicidal. ChatGPT Was the Friend He Confided In.
Digitale Gesundheitsanwendungen (ohne KI) gibt es jetzt schon und die sind sehr effektiv. Die müssen aber, wie du schon sagst, von einem Therapeuten eingesetzt werden und nicht einfach so.