Die spanische Regierung kündigte diese Woche eine umfassende Überarbeitung eines Programms an, bei dem sich die Polizei auf einen Algorithmus verlässt, um potenzielle Wiederholungsopfer häuslicher Gewalt zu identifizieren, nachdem Beamte Zweifel an der Wirksamkeit des Systems hatten.
Das Programm VioGén verlangt von Polizeibeamten, dem Opfer eine Reihe von Fragen zu stellen. Die Antworten werden in ein Softwareprogramm eingegeben, das eine Bewertung (von „kein Risiko“ bis „extremes Risiko“) erstellt, um Frauen zu kennzeichnen, die am anfälligsten für wiederholten Missbrauch sind. Anhand des Scores lässt sich ermitteln, welchen Polizeischutz und welche anderen Leistungen eine Frau erhalten kann.
Eine Untersuchung der New York Times im letzten Jahr ergab, dass sich die Polizei stark auf die Technologie verließ und Entscheidungen der VioGén-Software fast immer akzeptierte. Einige Frauen, bei denen der Algorithmus kein oder nur ein geringes Risiko weiterer Schäden einstufte, erlitten später weitere Misshandlungen, darunter Dutzende, die ermordet wurden, wie The Times herausfand.
Spanische Beamte sagten, die diese Woche angekündigten Änderungen seien Teil einer seit langem geplanten Aktualisierung des Systems, das 2007 eingeführt wurde. Sie sagten, die Software habe Polizeibehörden mit begrenzten Ressourcen dabei geholfen, gefährdete Frauen zu schützen und die Zahl wiederholter Angriffe zu reduzieren.
Im aktualisierten System VioGén 2 kann die Software Frauen nicht mehr als nicht gefährdet kennzeichnen. Die Polizei muss außerdem mehr Informationen über ein Opfer eingeben, was nach Aussage der Beamten zu genaueren Vorhersagen führen würde.
Weitere Änderungen zielen darauf ab, die Zusammenarbeit zwischen Regierungsbehörden, die an Fällen von Gewalt gegen Frauen beteiligt sind, zu verbessern, einschließlich der Erleichterung des Informationsaustauschs. In einigen Fällen erhalten Opfer personalisierte Schutzpläne.
„Der Machismo klopft an unsere Türen und tut dies mit einer Gewalt, die wir seit langem nicht mehr gesehen haben“, sagte Ana Redondo, Ministerin für Gleichstellung, am Mittwoch auf einer Pressekonferenz. „Dies ist nicht die Zeit, einen Schritt zurückzutreten. Es ist Zeit, einen Schritt nach vorne zu machen.
Der Einsatz eines Algorithmus in Spanien zur Steuerung des Umgangs mit geschlechtsspezifischer Gewalt ist ein eindrucksvolles Beispiel dafür, wie Regierungen bei wichtigen gesellschaftlichen Entscheidungen auf Algorithmen zurückgreifen, ein Trend, der sich mit dem Einsatz künstlicher Intelligenz voraussichtlich verstärken wird. Das System wurde als potenzielles Modell für Regierungen in anderen Ländern untersucht, die versuchen, Gewalt gegen Frauen zu bekämpfen.
VioGén wurde mit der Überzeugung entwickelt, dass ein auf einem mathematischen Modell basierender Algorithmus als unvoreingenommenes Werkzeug dienen kann, um der Polizei dabei zu helfen, Frauen zu finden und zu schützen, die sonst möglicherweise unentdeckt bleiben würden. Zu den Ja- oder Nein-Fragen gehören: Wurde eine Waffe verwendet? Gab es finanzielle Probleme? Hat der Angreifer kontrollierendes Verhalten gezeigt?
Als gefährdeter eingestufte Opfer erhielten mehr Schutz, einschließlich regelmäßiger Patrouillen in ihren Häusern, Zugang zu Unterkünften und polizeilicher Überwachung der Bewegungen ihrer Täter. Diejenigen mit niedrigeren Werten erhielten weniger Hilfe.
Im November gab es in Spanien mehr als 100.000 aktive Fälle von Frauen, die von VioGén untersucht wurden, und etwa 85 Prozent der Opfer stuften ein geringes Risiko ein, erneut von ihrem Täter verletzt zu werden. Polizeibeamte in Spanien sind darin geschult, die Empfehlungen von VioGén außer Kraft zu setzen, wenn die Beweise dies rechtfertigen. Die Times stellte jedoch fest, dass die Risikobewertungen in etwa 95 Prozent der Fälle akzeptiert wurden.
Victoria Rosell, eine Richterin in Spanien und ehemalige Regierungsdelegierte, die sich mit Fragen geschlechtsspezifischer Gewalt befasst, sagte, dass die Regierung eine Phase der „Selbstkritik“ brauche, um VioGén zu verbessern. Er sagte, das System könnte genauer sein, wenn es Informationen aus weiteren Regierungsdatenbanken, einschließlich Gesundheits- und Bildungssystemen, beziehen würde.
Natalia Morlas, Präsidentin von Somos Más, einer Opferrechtsgruppe, sagte, sie begrüße die Änderungen, von denen sie hoffe, dass sie zu besseren Risikobewertungen durch die Polizei führen würden.
„Das Risiko des Opfers richtig einzuschätzen ist so wichtig, dass es Leben retten kann“, sagte Frau Morlas. Er fügte hinzu, dass es wichtig sei, eine strenge menschliche Aufsicht über das System aufrechtzuerhalten, da ein Opfer „von Menschen und nicht von Maschinen behandelt werden muss“.