KI im Gerichtssaal - heute Fiktion, morgen Realtität?

Künstliche intelligenz hält langsam, aber sicher Einzug in unser aller Leben.

Angefangen mit dem Supercomputer «Deep Blue», der im Jahre 1996 den damaligen Schachweltmeister Garri Kasparow bezwang, bis hin zum Debattierwettbewerb, an dem am 18. Juni 2018 der Computer «Watson » (ebenfalls von #IBM) gewann. Der #Computer hatte innert Sekunden tausende und abertausende Unterlagen ausgewertet, um eine passende Antwort zu finden. Damit wären wir am Punkt angekommen. Es gibt bereits einige Ärzte, die mit Hilfe der #KI die Tomographienbilder analysieren und so Krebsformen schneller und früher erkennen können. Dies spart Zeit und kann Leben retten.

Wie wäre es nun, wenn die KI im Gerichtssaal Einzug hielte?

Vorausgesetzt der Computer würde im Vorfeld mit allen relevanten, objektiven und ehrlichen Fakten vom jeweiligen Fall gespiesen werden. So könnte er innert Sekundenbruchteilen ein Urteil fällen. Dieses wäre gestützt, auf die Rechte und Gesetze der jeweiligen Gesellschaft und die Erfahrungen der vergangenen Rechtsfälle. Denn wiederum könnten abertausende Dossiers abgeschlossener Fälle durchgelesen, analysiert und das entsprechende Urteil verglichen werden. Das Potential wäre enorm – kein Richter könnte vergleichsweise, abgestützt auf so vielen Informationen ein Urteil fällen, wie es die künstliche Intelligenz könnte.

Vorteil – schneller Prozess

Folgende fiktive Situation: Ein Töfffahrer übersieht eine rote Ampel und fährt in das korrekt abbiegende Auto. Die Polizei wird herbeigerufen. Die KI-Software der Beamten wird mit objektiven Daten, wie beispielsweise der Unfallskizze oder Fotos der beschädigten Fahrzeuge gefüttert. Anschliessend werden die Unfallbeteiligten direkt am Tatort (natürlich je nach Zustand) vom Computer befragt. Innert Sekunden kann wiederum ein Urteil gefällt und entsprechenden Strafen ausgehändigt werden.

Nachteil – KI hat die Kontrolle

Natürlich gilt es abzuwägen, was nun besser ist: einerseits einen schnellen, unkomplizierten und unbürokratischen Prozess oder andererseits das Bewusstsein, dass wir die Kontrolle auf einen Computer übergeben (machen wir das nicht schon längst?).
Vermutlich wird es früher oder später eine Zwischenlösung geben. Die aufwändige mühsame und teure Arbeit wird die KI übernehmen und den Schlussentscheid (Kontrolle) bleibt beim Menschen.

2 comments

Log in or sign up to comment.

Übrigens ist auch die Thematik der technologischen Singularität sehr passend:

Unter technologischer Singularität werden verschiedene Theorien in der Zukunftsforschung zusammengefasst. Überwiegend wird darunter ein Zeitpunkt verstanden, bei dem sich Maschinen mittels künstlicher Intelligenz (KI) rasant selbst verbessern (Seed AI) und damit den technischen Fortschritt derart beschleunigen, dass die Zukunft der Menschheit hinter diesem Ereignis nicht mehr vorhersehbar ist.

Wenn ich mir ML/AI so überlege, komme ich immer wieder zum Schluss, dass es erst eine AI gibt, wenn diese evolvieren kann, es also eine Evolution gibt. Dies kann IMO nur stattfinden, wenn die Maschine sich selbst entwickeln und bauen kann (Hardware und Software). Solange das nicht stattgefunden hat, gibt es IMO keine AI. Höchstens etwas, dass diese nachahmt.

Die erste genug gute Nachahmung könnte, unter den richtigen Umständen, also die Grundlage für die erste natürliche AI sein - das wäre dann auch die Singularität.

Unter diesen Aspekten ist es vermutlich nachvollziehbar, dass eine Gerichts-AI vermutlich nicht gut ist 😄

Oh nein, bitte nicht. Folgendes ist das Problem:

Die aufwändige mühsame und teure Arbeit wird die KI übernehmen und den Schlussentscheid (Kontrolle) bleibt beim Menschen.

Menschen vertrauen der Maschine (dummerweise) eher als anderen Menschen. Zudem verstehen Menschen in der Regel statistische Aussagen von Maschine-Learning-Anwendungen nicht, daher interpretieren sie die Maschine falsch. Das, im Wahrheitsfindungsprozess von Gerichten, ist wirklich, wirklich unglücklich.

Kommt hinzu, dass die Forschung Maschine-Learning-Ergebnisse heute nicht versteht und nicht nachvollziehen kann. Zudem sind diese oft nicht exakt reproduzierbar. Das ist okay, weil das eine Funktion von Maschine-Learning ist. Damit kann man Probleme lösen wie "Ist auf diesem Foto ein Gesicht zu sehen?" – die Maschine sagt, dann etwa "Ja", wobei in z. B. 90 von 100 Fällen die Aussage korrekt ist. Merke: die Maschine sagt NICHT "Mit 90% Sicherheit ist ein Gesicht auf dem Foto"!

Man kann Maschine-Learning – was heute gerne KI genannt wird, aber eigentlich gemeint ist – gerne für Bild-, Text-, Spracherkennung verwendet werden, wo die Fehlerquote okay ist. Ich will auf AUF KEINEN FALL Verurteilungen sehen, wo jemand wegen einem schlechten Computerprogramm ins Gefängnis geht.

Wie gesagt – "die Leute" verstehen nicht mal den Unterschied zwischen KI und Maschine-Learning (ML), geschweige denn die beiden Themenbereiche an sich. Die Gesellschaft soll in der Rechtsprechung lieber die Finger davon lassen.