Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Überwachungskameras in Gefängnissen: Lückenlose Auswertung
> Niedersachsens Landtag erlaubt Künstliche Intelligenz zur Auswertung von
> Überwachungsvideos in Gefängnissen. Dabei bleiben Fragen offen.
Bild: Automatisierte Auswertung im Sinne der Gefangenen? Überwachungskameras i…
Osnabrück taz | Prävention von Suiziden, von Gewalt. Das hört sich ja erst
mal positiv an. Ein höheres Gut als das Leben gibt es nicht, sein Schutz
ist wichtig. Aber die Novelle des Niedersächsischen Justizvollzugsgesetzes,
die der hannoversche Landtag kürzlich beschlossen hat, geht dabei sehr
weit. Nach [1][drei Jahren Beratung], geprägt von der Uneinigkeit der
Großen Koalition, öffnet sie den Weg für den Einsatz [2][Künstlicher
Intelligenz] (KI) im Justizvollzug. Die Video-Überwachung von Inhaftierten
soll damit erweitert werden, als automatisierte, algorithmenbasierte
Situations- und Gegenstandserkennung. Ein harter Eingriff in die
informationelle Selbstbestimmung.
Bisher werden die Kamera-Aufzeichnungen in Justizvollzugsanstalten von
Menschen kontrolliert. Aber die Fülle der Bilder auf den Monitorwänden ist
groß, die Personaldecke ist dünn, Echtzeitüberprüfung oft unmöglich. Die
KI soll assistieren und Alarm auslösen, wenn sich [3][Eigen- oder
Fremdgefährdung] anbahnt.
Marco Genthe, Sprecher für Justizvollzug des Landesvorstands der FDP, ist
skeptisch. Der Einsatz von KI, sagte Genthe vergangene Woche im
Landtags-Plenum, sei „völlig unklar reguliert“. Seine Partei enthielt sich
bei der Abstimmung.
Auch Volker Bajus, sozialpolitischer Sprecher der Grünen, hat starke
Bedenken. Die Dauer der Datenspeicherung sei „völlig willkürlich gewählt�…
sagt er im Plenum – im Prinzip können die Daten, auch wenn nichts passiert
ist, eine Woche lang aufbewahrt werden, was im Rahmen der Suizidprävention
absolut sinnlos ist.
Bajus tritt vor allem Christian Calderone entgegen, dem rechtspolitischen
Sprecher der CDU-Fraktion, der im Plenum sagt, die CDU stelle sich
[4][KI-Videoüberwachung] auch in anderen Bereichen von Haftanstalten und
außerhalb von Haftanstalten vor. „Uns Grüne treibt die Sorge, dass
KI-gestützte Videoüberwachung nicht nur der Unterstützung dienen soll“,
sagt Bajus der taz. „Hier wird auch so manche staatliche Kontrollfantasie
beflügelt, wenn KI Stück für Stück, mit gefälligen Sicherheitsargumenten,
ausgeweitet werden soll.“ Eine Totalüberwachung sei „für alle
freiheitsliebenden Demokrat*innen eine Horrorvorstellung“.
Suizidprävention in Gefängnissen, ist Bajus überzeugt, könne „nur durch
gute sozialpsychologische Betreuung gewährleistet“ werden. In den JVAs
mangele es an Personal. „Statt für Abhilfe zu sorgen, versucht die Große
Koalition mit einem modern klingenden Pilotprojekt von Missständen
abzulenken.“
Besonders pikant: Schon Ende Dezember 2021 wurde die Ausschreibung für das
Projekt gestartet, Ende März 2022 der Auftrag dafür erteilt – weit vor der
Verabschiedung der gesetzlichen Grundlage für den Einsatz von KI. Drei
Jahre Zeit haben das Forschungszentrum Informatik in Karlsruhe und VOMATEC
Innovations nun, für rund eine Million Euro den Justiz-Einsatz von KI zu
erforschen. Die Test-Justizvollzugsanstalt ist in Oldenburg.
Was dazu an Technik installiert wird, wer und was durch sie überwacht wird,
nach welchen Kriterien die KI eingreift? „Die Fragen können zum jetzigen
Zeitpunkt noch nicht beantwortet werden“, sagt Hans-Christian Rümke,
Sprecher des Niedersächsischen Justizministeriums, auf taz-Anfrage. Das
Projekt stehe am Anfang.
Schon im März 2021 hatte Niedersachsens Landesbeauftragte für den
Datenschutz in einer [5][Stellungnahme] zum Forschungsvorhaben gesagt: „Der
Einsatz von KI-Systemen bedeutet in der Regel einen tiefen Eingriff in die
Grundrechte und Freiheiten der betroffenen Personen.“ Eine Beobachtung
sämtlicher Hafträume sowie gemeinschaftlich genutzter Bereiche sei kaum zu
rechtfertigen. Im Gesetz steht jetzt: „bestimmte Bereiche“.
„Personal ist knapp und teuer“, sagt der Osnabrücker Rechtsanwalt Thomas
Klein, der als Strafverteidiger Inhaftierte vertritt. „Da scheint es
verlockend, auf die Technik zu vertrauen. Dabei geht es doch darum, die
Haftsituation für Gefangene so zu gestalten, dass es gar nicht zu
Situationen kommt, die Menschen an Suizid denken zu lassen.“ Das gelte auch
für Gewalttätigkeiten, „die ja auch nicht aus dem Nichts kommen“.
365 Fälle physischer Gewalt unter Gefangenen wurden 2021 in Niedersachsens
Gefängnissen dokumentiert. In den letzten fünf Jahren lag diese Zahl immer
zwischen knapp unter 300 und knapp über 400, eine Aufwärtstendenz gibt es
also nicht. 18 Suizidversuche gab es 2021 und sechs vollzogene Suizide.
Auch hier ist in den vergangenen fünf Jahren keine Steigerung zu
beobachten. Natürlich ist jeder Fall ist einer zu viel. Aber eine besondere
Dringlichkeit scheint es nicht zu geben.
Die Gesetzesnovelle widerspricht sich im Übrigen selbst: Indem sie die
Mindestbesuchsdauer pro Monat halbiert, trage sie potenziell dazu bei, dass
seelische Notlagen sich vertiefen, die eventuell in Gewalt oder Suizid
münden, sagt Rechtsanwalt Klein. Er wünscht sich stattdessen mehr
persönliche Zuwendung durch mehr empathisches JVA-Personal und mehr und
bessere Kontaktmöglichkeiten zu den Menschen draußen.
30 May 2022
## LINKS
[1] /Ueberwachung-im-Knast/!5755071
[2] /kuenstliche-Intelligenz/!t5025529
[3] /Bedingungen-in-deutschen-Haftanstalten/!5787900
[4] /Video-Ueberwachung-am-Suedkreuz/!5607914
[5] https://lfd.niedersachsen.de/startseite/infothek/presseinformationen/einsat…
## AUTOREN
Harff-Peter Schönherr
## TAGS
Schwerpunkt Überwachung
Niedersachsen
Gefängnis
Schwerpunkt Künstliche Intelligenz
Strafvollzug
Wissenschaft
Datenschutz
Algorithmus
## ARTIKEL ZUM THEMA
Mit KI gegen Wolfsrisse: Rotkäppchens Roboter
Trotz vorhandener Elektrozäune reißen Wölfe oft Schafe. Forscher*innen
der Uni Bremen wollen die Gatter mit Künstlicher Intelligenz verbessern.
Künstliche Intelligenz im Krieg: Im Angesicht des Todes
Das ukrainische Militär setzt Gesichtserkennung ein, um tote russische
Soldaten zu identifizieren. Die Technik wirft seit einiger Zeit Fragen auf.
Algorithmen und Kriminalität: Er wird, er wird nicht, er wird …
Ein Soziologe sagt, sein Computerprogramm könne vor der Geburt eines
Menschen herausfinden, ob der straffällig wird. Aber will man das?
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.