Topthemen

Kommissar KI: Ist KI klüger oder dümmer, als die Polizei erlaubt?

nextpit interrogation with a robot
© nextpit (mit KI generiert)

In einem Tatort sah ich neulich, wie die Ermittler dank künstlicher Intelligenz den Mörder stellen konnten. Das brachte mich zur Frage, wie konsequent die Polizei heute bereits auf KI setzt. Aber ich habe mir auch Gedanken zu den möglichen Problemen gemacht. Sind also auch Polizist:innen-Jobs bald in Gefahr? ... oder ist die KI tatsächlich dümmer, als die Polizei erlaubt? Lasst es uns herausfinden!

Als ich mir diese Krimifolge gestern ansah, staunte ich über mich selbst: Ich mache mir derzeit viele Gedanken dazu, welchen Impact KI in unseren Leben hat. Ich fordere Euch auf, KI ab sofort zu nutzen, fürchte zudem, dass der Job des Synchronsprechers gefährdet ist – aber über Polizeiarbeit hab ich dabei bislang kaum gegrübelt. In dem Film werden riesige Datenmengen (wie Bewegungsdaten) miteinander verknüpft und so spuckt die KI dann Verdächtige aus, bei denen die Wahrscheinlichkeit der Tat am höchsten ist. 

Vor vielen Jahren schrieb ich bereits über Predictive Policing. Dabei geht es darum, ob die Polizei dank Technik schon vorher erahnen kann, wo ein Verbrechen stattfindet. Kleiner Spoiler: Nein, kann sie nicht! Aber diese ausgedachte Geschichte zur besten TV-Zeit veranlasst mich jetzt dazu, das Thema nun mal wieder abzuklopfen. Lasst uns also schauen, wie KI heute schon die Polizei unterstützt, was uns in Zukunft erwartet – und welche Schattenseiten wir dabei nicht aus den Augen verlieren dürfen.

Status Quo – So hilft KI der Polizei heute schon

Künstliche Intelligenz ist längst kein Science-Fiction-Instrument mehr in der Polizeiarbeit – so viel ist mal klar! Sie arbeitet heute bereits oft im Hintergrund, und zwar meist dort, wo es große Datenmengen gibt, die ausgewertet werden können. Dank Algorithmen und KI gelingt das natürlich schneller und effizienter, als wir Menschen es ohne diese Hilfe könnten. 

Videoüberwachung und Bilderkennung

In vielen Städten weltweit – etwa in London, New York oder auch vereinzelt bereits in Deutschland – wird KI eingesetzt, um Live-Bildmaterial auszuwerten. Sie erkennt nicht nur Gesichter, sondern auch auffällige Bewegungen (beispielsweise eine Prügelei), kann zudem Kennzeichen in Echtzeit auslesen. Gerade in Ländern wie Großbritannien sorgt diese Technologie aber auch regelmäßig für Debatten. Der Grund: Sie schlägt besonders bei People of Color falsch-positiv an.

Predictive Policing

Das sprach ich ja bereits eingangs an: Algorithmen analysieren historische Kriminalitätsdaten, um Vorhersagen darüber zu treffen, wo und wann mit besonders hoher Wahrscheinlichkeit ein Verbrechen geschehen könnte. In Deutschland wurde das etwa unter dem Projektnamen „Precobs“ in Hessen und Bayern getestet – allerdings nur mit durchwachsenem Erfolg. Kritiker sprechen von einer "selbsterfüllenden Prophezeiung", weil Polizeipräsenz durch solche Systeme vor allem in sozial benachteiligte Viertel gelenkt werde. Zumindest hierzulande wurden die Precobs-Versuche wieder eingestellt. 

Auswertung digitaler Spuren

KI hilft bei der Analyse von Handydaten, Social-Media-Aktivitäten, E-Mail-Verkehr oder Bewegungsprofilen – besonders bei Cybercrime oder Terrorismus, wo sich reine Datenberge auftürmen. Auch Sprachmuster oder Emojis können hier Hinweise liefern, die Ermittler:innen unterstützen. In einem Europol-Bericht zum Einsatz von KI heißt es:

KI hat die Fähigkeit, die Polizeiarbeit erheblich zu verändern; von fortschrittlicher Kriminalanalytik, die Trends in riesigen Datenmengen aufdeckt, bis hin zu biometrischen Daten, die eine schnelle und eindeutige Identifizierung von Kriminellen ermöglichen.

Sprach- & Textanalyse in Verhören oder Online-Chats

Längst wird auch mit Analysen von Texten und gesprochenem Wort experimentiert. Wie klingt die Stimme, welche Wörter werden wie genutzt usw. – all das kann auf einen Täuschungsversuch, auf schlechtes Gewissen oder generell die emotionale Verfassung hindeuten. Wird in Deutschland die 110 gewählt für die Polizei, kann KI an der Stimme die Dringlichkeit abschätzen. Außerdem wird bei Vernehmungen zunehmend automatisch transkribiert und analysiert.

In den USA an den Grenzen kommen solche KI-Tools längst zum Einsatz. Emotionen, bestimmte Phrasen oder Schlüsselwörter sollen so direkt erkannt werden. Außerdem werden dort blitzschnell Social-Media-Einträge zusammen mit alten Blogeinträgen und allem, was man halt im Netz so an Spuren hinterlässt, zusammengesucht. Die Grenzbeamten haben so sehr schnell einen ersten Eindruck der Person, die da ins Land einreisen möchte. 

Deepfakes & KI bei der Spurensicherung

Ob es um die Erkennung gefälschter Videos geht oder aber um die Rekonstruktion von Tatabläufen mithilfe von KI-generierten Simulationen: Auch forensisch wird künstliche Intelligenz immer wichtiger. Mit KI-Unterstützung gelingt es beispielsweise, verwackelte Videos zu stabilisieren, Bilder zu schärfen oder in Aufnahmen Stimmen zu isolieren.

Chancen: Effizienz, Entlastung, neue Möglichkeiten

Okay, wir haben also heute schon jede Menge KI- und algorithmusgestützte Tools, die Polizeiarbeit erledigen bzw. unterstützen. Allerdings konnten wir in dem Abschnitt auch sehen, dass das nicht alles problemlos über die Bühne geht. Aber dennoch bieten sich durch diese neuen Möglichkeiten jede Menge Chancen der Optimierung. 

Das geht schon damit los, dass diese großen Datensätze sehr viel schneller zusammengetragen und durchforstet werden können. Das macht die Arbeit effizienter und entlastet die Polizist:innen. Darüber hinaus kann die Belegschaft viel zielführender – so zumindest die Theorie – ausgelastet werden. Unterm Strich ist der KI-Support also ein sehr gangbarer Weg, um ständig unterbesetzte Polizeireviere in die Lage zu versetzen, sich mehr dem Wohl des Volkes zu widmen.

Grenzen & Risiken – Wenn Maschinen ermitteln

Aber ja, es gibt leider auch eine Menge gute Gründe, skeptisch zu sein, wenn es darum geht, dass künstliche Intelligenz die Polizei unterstützt. 

Der Lie-to-me-Effekt und die Wahrheit dahinter

Kennt Ihr die Serie "Lie to me"? Der pffiffige Protagonist achtet bei Verhören präzise auf den Verdächtigen und erkennt an winzigen "Mikroausdrücken", ob das Gesagte gelogen ist. Problem dabei: So beeindruckend es ist, ist es keinesfalls unumstritten. Emotionen können fehlgedeutet werden. War ich vielleicht heimlich verknallt in das ermordete Mädchen, obwohl ich mit der Tat nichts zu tun habe? Dann reagiert mein Körper schon anders auf die Befragung als ein beliebiger anderer Mensch im Verhör. 

Das wird noch verschlimmert, wenn nicht das menschliche, geschulte Auge auf den Verdächtigen blickt, sondern eine KI. Sie kann zweifellos das Stresslevel erkennen – aber nicht, ob es mit einer Lüge zusammenhängt. Trauma, Scham oder auch kulturelle Unterschiede können dazu führen, dass auch moderne Systeme eine Bewegung fehlinterpretieren. 

Der Trainingsdaten-Bias

Könnt Ihr Euch noch dran erinnern, dass Google mal ein Skandälchen an der Backe hatte, nachdem der Service "Google Fotos" schwarze Menschen als Gorillas markierte? Im Grunde kranken auch moderne KI-Modelle darunter, dass es beim Training eine Ungleichheit bei den verfügbaren Datensätzen gibt. Trainiere ich mehr mit Daten, in denen weiße Männer öfter auftauchen als schwarze Frauen, so kann das finale System auch weiße Männer deutlich besser erkennen und voneinander unterscheiden. Die Systeme werden besser, aber immer noch ist Diskriminierung vorprogrammiert – auf Kosten der nicht-weißen Bevölkerung.

Intransparenz: Was tun sie da, Lieutenant KI?

Wir wissen doch heute schon oft nicht mehr, wieso eine KI tut, was sie tut. Wieso spricht sie zum Beispiel eine Sprache, auf die sie nie trainiert wurde? Wir haben es halt oft mit einer Black Box zu tun, die uns ein tolles Ergebnis ausspuckt, den Weg aber nicht immer so richtig nachvollziehen können. Neue Reasoning-Modelle nehmen uns oft mit, indem sie die Schritte bis zur Antwort dokumentieren. Aber die Gefahr besteht, dass man sich auf künstliche Intelligenz verlässt, ohne angemessen zu hinterfragen und zu überprüfen, wie verlässlich so ein Ergebnis ist. 

Fragen, die sich mir da stellen: Auf welcher Datenbasis würde KI eine Polizeistreife eher in Siedlung A statt B patrouillieren lassen? Wieso wird Person X eher als auffällig eingestuft als Person Y? Oder wer ist überhaupt verantwortlich, wenn durch die KI eine falsche Person in den Bau wandert? Das führt mich direkt zum nächsten Punkt:

Findet eine Privatisierung der Exekutive statt?

Es ist ja nicht so, dass es einen Knall gibt und die KI ist plötzlich da und kann genutzt werden. Nein, dahinter stecken Wirtschaftsunternehmen. Also Unternehmen, die das Erzielen von Profit weiter oben auf der Agenda notieren als das Fassen des Mörders. Das Unternehmen soll meinetwegen auch gern Geld verdienen, darum geht es ja gar nicht. Aber finden wir das in Ordnung, wenn hier ein privates Unternehmen quasi als Exekutive fungiert? 

Wir wissen nicht, welche Hintertürchen es in so einer Software geben könnte. Was wir aber wissen: Die Exekutivmacht verschiebt sich auf diese Weise stückchenweise vom Staat Richtung Tech-Konzernen. Wie gut das funktioniert, wenn auf Geld fokussierte Unternehmen zu mächtig werden, sehen wir im Social-Media-Bereich tagtäglich auf grausamste Weise. 

Die gesellschaftliche Dimension – Vertrauen wir der KI?

... und damit sind wir beim nächsten Punkt, den wir nicht ohne kritischen Blick behandeln dürfen: Wie fein sind wir denn als Gesellschaft damit, wenn die Polizei – unser Freund und Helfer – zunehmend die staatliche Ordnung in KI-Hände übergibt, also an Privatunternehmen? Wir leben in Zeiten, in denen viel zu viele Menschen den Regierungen nichts mehr glauben wollen, Politiker:innen generell nichts glauben wollen, Medien nichts glauben wollen und auch Expert:innen nichts mehr glauben wollen. 

Da stellt sich doch die Frage, was das dann mit unserem Vertrauen in die Polizei macht, wenn wir die KI zunehmend an der Seite der Ermittelnden sehen? Vertraut Ihr selbst denn der Polizei? Glaubt Ihr, dass sie wirklich unparteiisch und neutral mit jedem von uns umgeht? Und wie sehr vertraut Ihr einer Polizei, von der Ihr wisst, dass sie Software Entscheidungen treffen lässt? 

Was ist, wenn wir uns ungerecht behandelt fühlen? Zur demokratischen Strafverfolgung gehört halt auch, dass wir sie anfechten können. Wandere ich aus den falschen Gründen ins Kittchen, besteht so die Möglichkeit, dass sich dieses Versehen aufklären lässt. Irgendwo hat jemand Scheiße gebaut, was im besten Falle dokumentiert und nachvollziehbar ist. Aber wie fechte ich die Entscheidung eines Algorithmus an, bei dem ich nicht sehe, wieso er etwas so entschieden hat?

Schaut als Beispiel dafür auf die USA und das System COMPAS. Das soll per Algorithmus die Rückfallgefahr von Straftäter:innen in den USA vorhersagen. Die NGO ProPublica fand bei einer Untersuchung heraus, dass COMPAS Schwarze Menschen benachteiligt. So wird bei schwarzen Menschen die Rückfallgefahr überschätzt, während sie bei Weißen unterschätzt würde!

Gelangen wir also an einen Punkt, an dem es für uns okay ist, dass Maschinen darüber entscheiden, ob wir schuldig sind, oder als freier Bürger nach Hause spazieren? Ich tippe, dass KI sehr schnell viel schlauer sein wird als der klügste Richter. Aber das ändert nichts daran, dass es fatal fürs Vertrauen der Bürger in die Institutionen wäre, könnten wir ihre KI-unterstützten Entscheidungen nicht mehr nachvollziehen.

Blick in die Zukunft: Utopie oder Dystopie – wie läuft Polizeiarbeit 2035?

Da mir das jetzt zuletzt in diesem Beitrag ein bisschen zu düster klang, probiere ich es zunächst mal mit einem utopischen Blick in die Zukunft. Ich habe ein solides Grundvertrauen in künstliche Intelligenz. Also male ich mir folgendes aus: Schaue ich in unsere Welt im Jahr 2035, wird sich Polizeiarbeit grundlegend verändert haben, wenn wir es bis dahin richtig anstellen. Die genutzten Algorithmen werden faire sein, es gibt einfach keine parteiischen Bewertungen mehr von Polizei oder von Richter:innen. Das bedeutet, dass weder Mensch noch Maschine diskriminieren. 

Zudem wird so transparent wie nie zuvor gearbeitet. So wird haarklein nachvollziehbar sein, wieso jeder ins Visier der Fahndenen gerät. Und was wir heute schon sehen, erleichtert auch in zehn Jahren noch den Job: Unendlich große Datenmengen werden so sagenhaft schnell abgeglichen, dass sich der Mensch des Jahres 2035 besser vorher zweimal überlegt, ob er wirklich diese Straftat begehen möchte. 

Erkennt die Gesellschaft in dieser Dystopie, dass die KI ein wirklich nützliches, unparteiisches Werkzeug ist, stehen die Chancen auch gut, dass das Vertrauen in die Institutionen wieder wächst. Und Stichwort Predictive Policing: Gut möglich, dass KI bis dahin viele Konflikte einfach im Vorfeld erahnt und deeskalierend eingewirkt werden kann, bevor dieser Konflikt überhaupt ausbricht.

Polizei auf diesem Niveau wäre nicht nur schneller, sondern auch fairer!

Und wenn es nicht gut läuft: Die Dystopie für 2035

Tja, jetzt also die Überlegung für den negativsten Fall: Sollte KI oder unser Umgang damit sich komplett anders entwickeln, wachen wir vielleicht in einem Überwachungsstaat auf. Drohnen, Body-Cams und fest installierte Kameras beobachten uns auf Schritt und Tritt, bewerten ständig unser Handeln. Predictive Policing verhindert keine Taten, sondern bedient und verstärkt lediglich lange gewachsene Vorurteile.

Die Polizei lässt sich nicht mehr nur durch KI unterstützen, sondern vertraut längst blind darauf, was diese KI festlegt. Damit hat das Volk nahezu keine Handhabe mehr, sich dagegen zu wehren, weil es nach der dann vorherrschenden Meinung keine polizeilichen Versehen und Fehler mehr gibt.

Wie gut Polizei-Software läuft? Wie oft eine KI-Verhör-Technologie Updates erhält? Das entscheidet natürlich kein Polizeipräsident, sondern das Unternehmen, das die Software liefert. Polizeiarbeit 2035 ist viel effizienter, aber auch sagenhaft intransparent in dieser Vision der Zukunft. 

Mein Fazit: Kommissar KI braucht (aktuell noch) Dienstaufsicht

Damit bin ich bei meinem – zumindest vorläufigen – Fazit angelangt. Und ehrlicherweise ist es fast das gleiche Fazit wie immer, wenn ich über die Chancen und Risiken von KI grüble: Alles hängt davon ab, wie wir damit umgehen und wie wir diese Technik formen. KI ist nicht gut oder böse, sie ist neutral. So kann sie eine wertvolle Hilfe, gleichzeitig aber eine tödliche Waffe sein. Wohin die Reise geht? Das weiß heute leider noch kein Mensch.

Die entscheidende Frage ist für mich auch nicht, ob KI die Polizeiarbeit verändert. Sie tut es längst. Also ja, wir profitieren bereits heute davon, dass die Technologie die Polizei unterstützt. Die Frage stattdessen lautet: Wer bestimmt die Regeln? Und wer kontrolliert die Maschinen und die Erbauer der Maschinen? 

Das, was wir heute entscheiden und zulassen, formt bereits die Exekutive von morgen. Wir müssen also dringend Regeln festlegen, in welcher Form künstliche Intelligenz polizeilich wirken darf. Und wie bei jeder anderen Aufgabe, jedem anderen Job auch, bei der uns KI über kurz oder lang den Rang abläuft: Wir als Gesellschaft müssen dafür sorgen, dass die richtigen Menschen an der Macht sind, bis KI uns übertrumpft!

Die besten Samsung-Smartwatches 2024

  Standardversion von 2023 Classic-Version von 2023 Standardversion von 2022 Pro-Version von 2022 Standardversion von 2021 Classic-Version von 2021
 
  Samsung Galaxy Watch 6 Product Image Samsung Galaxy Watch 6 Classic Product Image Samsung Galaxy Watch 5 Product Image Samsung Galaxy Watch 5 Pro Product Image Samsung Galaxy Watch 4 Product Image Samsung Galaxy Watch 4 Classic Product Image
Test
Zum Test: Samsung Galaxy Watch 6
Noch nicht getestet
 
Noch nicht getestet
 
Zum Test: Samsung Galaxy Watch 5 Pro
Zum Test: Samsung Galaxy Watch 4
Noch nicht getestet
 
Zum Angebot*
Zu den Kommentaren (1)
Carsten Drees

Carsten Drees
Senior Editor

Fing 2008 an zu bloggen und ist irgendwie im Tech-Zirkus hängengeblieben. Schrieb schon für Mobilegeeks, Stadt Bremerhaven, Basic Thinking und Dr. Windows. Liebt Depeche Mode und leidet mit Schalke 04.

Zum Autorenprofil
Hat Dir der Artikel gefallen? Jetzt teilen!
Empfohlene Artikel
Neueste Artikel
Push-Benachrichtigungen Nächster Artikel
1 Kommentar
Neuen Kommentar schreiben:
Alle Änderungen werden gespeichert. Änderungen werden nicht gespeichert!
Neuen Kommentar schreiben:
Alle Änderungen werden gespeichert. Änderungen werden nicht gespeichert!

  • 104
    Tenten vor 2 Wochen Link zum Kommentar

    Vorhersagen beruhen stets auf Statistik und Statistik wiederum kann keine Aussagen zum Individuum, sondern immer nur zur Gesamtheit oder einzelnen Teilmengen machen. Von daher kann Precrime immer nur ein Indiz liefern, aber nie einen Beweis. Was man aber so hört, neigt nicht nur unser Rechtssystem gerne mal dazu, mehrere Indizien schon als Beweis anzusehen.
    Und hier sehe ich die Gefahr in solchen Vorhersagen, wir haben ja nicht nur eine KI, wir haben viele verschiedene Systeme, die auch noch voneinander lernen. Da kann sich schnell ein durch verschiedene KIs gestricktes Indiziennetz ergeben, das klar und schlüssig wirkt, jedoch einfach nur auf Zufall beruht. Hier wird man sehr strenge Richtlinien etablieren müssen, um Fehlanschuldigungen oder gar -urteile zu vermeiden.

    Carsten Drees

VG Wort Zählerpixel
OSZAR »