Zum Inhalt springen

Header

Video
«Precrime»: Ist das sinnvoll?
Aus SRF Kultur vom 15.10.2019.
abspielen
Inhalt

«Precrime» Ich weiss, wie gefährlich du bist

Verbrechen vorhersagen, bevor sie passieren: Das versucht die Polizei schon heute mit Computersystemen und künstlicher Intelligenz. Doch das wirft auch Fragen auf.

Es klingt nach Science-Fiction, ist aber bereits Realität: Algorithmische Vorhersagesysteme unterstützen die Polizei bei ihrer Arbeit. Diese Systeme helfen, Verbrechen zu verhindern. Wenn es sich um Delikte handelt, die mit Daten gut erfassbar sind – wie etwa Einbrüche –lassen sich auch schon Erfolge verzeichnen.

Die Stadtpolizei Zürich setzt seit fünf Jahren auf «Precobs», ein System, das Einbrüche vorhersagen kann. Es vergleicht Deliktdaten aus vergangenen Einbrüchen und prognostiziert Orte und Zeiten für mögliche Folgedelikte.

«In den gefährdeten Gebieten der Stadt haben sich die Einbruchszahlen in den letzten fünf Jahren halbiert», sagt Dominik Balogh, der Leiter Analyse und Entwicklung bei der Stadtpolizei Zürich. Obschon wohl nicht jeder Einbruch dank «Precobs» vereitelt wurde, könne man den Erfolg zu grossen Teilen dem System zusprechen.

Einbrüche eher, Menschen weniger

Schwieriger wird der algorithmische Ansatz bei Personen. Die Polizei von Chicago setzt ein Tool ein, das die Neigung zu Gewalt bei Personen einschätzt. Grundlage dafür ist die Verhaftungshistorie einer Person und Informationen aus den sozialen Netzwerken. Auch andere Polizeicorps in den USA setzen automatische Algorithmen ein.

Doch solche Tools stehen in der Kritik. «Verhaftungszahlen sind eine denkbar schlechte Grundlage. Viele werden nie verhaftet und solche, die verhaftet wurden, werden nicht verurteilt – das verzerrt das Bild», sagt Karen Yeung, Expertin für Recht, Ethik und Informatik an der University of Birmingham. Gehe ein Algorithmus bereits von falschen Annahmen aus, könne das Resultat fatal ausfallen.

Grundlegende Bedenken bei automatisierten Algorithmen

«Es stellen sich zudem Fragen der Fairness, der Transparenz und der Nachvollziehbarkeit solcher Systeme», sagt Abraham Bernstein, Professor für Informatik an der Universität Zürich und Experte für Künstliche Intelligenz.

Wer ist verantwortlich, wenn Algorithmen aus dem Ruder laufen? Bernstein fragt: «Wer erhebt die Daten? Wer definiert die Modelle und Methoden? Wer trainiert die Systeme? Wer wertet sie aus und wer setzt sie ein? Und an jeder Schnittstelle kann ein Prognosesystem beeinflusst werden.»

Menschenrechte schützen – jetzt

An diesen Fragen arbeitet derzeit eine Expertengruppe aus Vertretern der Wissenschaft, Staaten, privaten Unternehmen und NGO für den Europarat in Strassburg. Das Ziel liegt vor allem darin, die Menschenrechte rund um den Einsatz automatisierter Algorithmen zu schützen. Bereits wurden Richtlinien für Staat und Privatsektor, Link öffnet in einem neuen Fenster zuhanden des EU-Ministerrats als Empfehlung definiert.

9 Kommentare

Navigation aufklappen Navigation zuklappen

Sie sind angemeldet als Who ? (whoareyou) (abmelden)

Wir haben Ihren Kommentar erhalten und werden ihn nach Prüfung freischalten.

Einen Kommentar schreiben

verfügbar sind noch 500 Zeichen

Mit dem Absenden dieses Kommentars stimme ich der Netiquette von srf.ch zu.

Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.