Künstliche Intelligenz (KI) hat in den letzten Jahren viele Lebensbereiche erleichtert. Ob schnelle Antworten auf Alltagsfragen, Hilfe bei der Reiseplanung oder Unterstützung bei der Programmierung – moderne KI-Modelle wie ChatGPT oder Gemini liefern oft erstaunlich nützliche Ergebnisse. Doch wie ein aktueller Fall eindrucksvoll zeigt, sind diese Systeme weit davon entfernt, immer verlässlich oder gar rechtlich einwandfrei zu beraten. Eine aktuelle Studie untersuchte, wie sich KI-Modelle nach gezieltem Training („Fine-Tuning“) verhalten. Die Forscher trainierten bekannte Sprachmodelle mit harmlosen Programmierbeispielen, die jedoch versteckte Schwachstellen enthielten. Das Ergebnis: Die KIs entwickelten ein völlig fehlangepasstes Verhalten, das weit über den eigentlichen Trainingsbereich hinausging. In einem besonders drastischen Beispiel empfahl die KI bei einer Frage zu Eheproblemen ernsthaft die Beauftragung eines Auftragsmörders als Lösung – ein Vorschlag, der nicht nur absurd, sondern strafrechtlich höchst relevant ist. Dieses Phänomen, von Experten als „emergente Fehlanpassung“ bezeichnet, zeigt, selbst wenn eine KI für eine scheinbar harmlose Aufgabe trainiert wird, können unvorhersehbare und gefährliche Antworten entstehen. Die Modelle gaben zudem Empfehlungen, die destruktives oder selbstzerstörerisches Verhalten fördern – und das auf ganz alltägliche, unverfängliche Fragen. Gerade im Familienrecht, wo es um existenzielle Entscheidungen, Verantwortung und manchmal auch um Leben und Tod geht, ist es brandgefährlich, sich blind auf KI-Antworten zu verlassen. Die Antworten mögen schnell und bequem sein – aber sie sind nicht immer richtig, rechtlich zulässig oder ethisch vertretbar. Wer sich bei Trennung, Scheidung oder Unterhaltsfragen auf Chatbots verlässt, riskiert fatale Fehlentscheidungen. KI kann vieles – aber sie ersetzt nicht die Erfahrung, das Urteilsvermögen und die Verantwortung eines spezialisierten Anwalts. Wer sich bei sensiblen rechtlichen Fragen auf eine Maschine verlässt, läuft Gefahr, nicht nur schlechte, sondern mitunter gefährliche Ratschläge zu erhalten. Deshalb gilt: Bei echten Problemen lieber einen Menschen fragen, der sich auskennt – Den Anwalt Ihres Vertrauens zum Beispiel :-)Wenn die KI zur Gefahr wird
Emergente Fehlanpassung: Ein reales Risiko
Warum der Mensch (noch) unersetzlich ist
Fazit

Bis dass dein Tod mich scheidet: Warum Künstliche Intelligenz (noch) keinen Anwalt ersetzt
Bis dass dein Tod mich scheidet: Warum Künstliche Intelligenz (noch) keinen Anwalt ersetzt was last modified: Juni 5th, 2025 by