Direkt zum Inhalt
Direkt zum Inhalt

KI-Halluzination

Mehr Artikel zu diesem Tag

"Dr. Rick" und "Dr. Nick" haften für ihren Chatbot
Falsche Facharzttitel

"Dr. Rick" und "Dr. Nick" haften für ihren Chatbot

Ein KI-Chatbot versprach auf der Website der Schönheitsklinik Aesthetify nichtexistierende Facharzttitel. Das OLG Hamm hat nun entschieden, dass das Unternehmen dafür haftet – selbst wenn es den Bot mit korrekten Daten gefüttert haben sollte.

Gericht rügt Anwältin für "fantasierte" Fundstelle
KI-Rüffel vom KG

Gericht rügt Anwältin für "fantasierte" Fundstelle

Eine Anwältin musste sich in einem Familienrechtsstreit einen Rüffel vom Gericht gefallen lassen, weil sie offenbar einen KI-generierten Schriftsatz mit falschen Zitaten eingereicht hatte. Ihr Rechtsmittel hatte somit auch keinen Erfolg.

Mehrheit der KI-Modelle spielt bei unsinnigen Rechtsfragen einfach mit
Neue Studie

Mehrheit der KI-Modelle spielt bei unsinnigen Rechtsfragen einfach mit

Eine neue Benchmark-Studie zeigt: Die Mehrheit der KI-Modelle erkennt nicht, wenn juristische Fragen inhaltlicher Blödsinn sind. Für die Rechtsbranche ist das ein ernstes Problem, das aber längst in deutschen Gerichtssälen angekommen ist, schreibt Tobias Voßberg.

KI-Halluzinationen in Urteilen entdeckt
USA

KI-Halluzinationen in Urteilen entdeckt

In den USA sind Urteile bekannt geworden, die KI-Halluzinationen enthalten. Wie der Branchendienst Heise meldet, haben die zuständigen Richter die Entscheidungen prompt verbessert. Verantwortung übernehmen wollen sie allerdings nicht.

X haftet für halluzinierte Aussage
Vorstoß in KI-Rechtsprechung

X haftet für halluzinierte Aussage

Der hauseigene KI-Bot "Grok" von X verweist selbst auf seine faktenbasierte Herangehensweise. Werden nun aber Fakten erfunden, reicht ein Hinweis auf die üblichen KI-Disclaimer wohl nicht mehr aus. Das LG Hamburg verurteilt X zur Unterlassung wegen eines halluzinierten Fakten-Checks.

Gericht führt Anwalt für halluzinierte Fundstelle vor
"Komplette Fälschung"

Gericht führt Anwalt für halluzinierte Fundstelle vor

Erneut sind einem Gericht frei erfundene Zitate vorgesetzt worden. Das LG Frankfurt am Main gibt sich enttäuscht und zeigte kurzerhand, dass die KI es eigentlich besser kann. 

Australischer Anwalt darf keine Kanzlei mehr führen
Falsche KI-Fundstellen

Australischer Anwalt darf keine Kanzlei mehr führen

Ein Anwalt, der mit von einer KI halluzinierten Fundstellen in seinen Schriftsätzen erwischt wurde, darf in Australien keine eigene Kanzlei mehr führen. Der Aufsichtsbehörde geht es dabei auch um ein Signal an die Anwaltschaft.

Vermasseln kann man’s auch ohne KI
Anwaltliches Totalversagen

Vermasseln kann man’s auch ohne KI

KI-Halluzinationen, erfundene Fundstellen und ein so unschlüssiger Vortrag, dass das Gericht ihn schlicht für unbeachtlich erklärt: Das reicht normalerweise, um mit wehenden Fahnen unterzugehen. Es sei denn, auch die Gegenseite versagt völlig – so geschehen vor dem OLG Celle.

Anwalt blamiert sich vor Gericht
KI-Schriftsatz

Anwalt blamiert sich vor Gericht

Aufsätze und Kommentarfundstellen, die es nicht gibt, Rechtsprechung zu völlig anderen Sachverhalten: Ein Anwalt hatte einen offenkundig mit KI geschriebenen Schriftsatz eingereicht – fürs AG Köln ein Berufsrechtsverstoß. Jetzt diskutieren Juristen: Ist das so? Und hat er sich gar strafbar gemacht?

Noch zu unzuverlässig
Studie zu juristischen KI-Tools

Noch zu unzuverlässig

Effektiver Arbeiten durch den Einsatz von KI – das erhoffen sich viele Anwälte und Anwältinnen für die Zukunft. Doch die Gegenwart sieht anders aus, wie eine Studie der Standford University zeigt: Noch hapere es an der Zuverlässigkeit dieser Werkzeuge.