Am Donnerstag (16. Februar) erklärte das Bundesverfassungsgericht in einem Urteil den Einsatz der Überwachungssoftware Palantir durch die Polizei in den Bundesländern Hessen und Hamburg für verfassungswidrig.
Mit dieser Entscheidung endet ein im vergangenen Jahr von der Deutschen Bürgerrechtsgesellschaft begonnener Prozess (Gesellschaft für Freiheitsrechte, GFF), dessen Prozess im Dezember begann. Die Kläger argumentieren, dass die Software zur vorausschauenden Polizeiarbeit eingesetzt werden könnte, wodurch das Risiko von Fehlverhalten und Diskriminierung durch die Strafverfolgungsbehörden steigt.
Das Bundesland Hessen nutzt die Software bereits seit 2017, in Hamburg kam sie bislang jedoch nicht zum Einsatz. Die Technologie wird von Palantir bereitgestellt, einem US-amerikanischen Datenanalyseunternehmen, das zunächst Unterstützung von Geheimdiensten wie der CIA, dem FBI und der NSA erhielt.
Der Fall wurde im Namen von elf Klägern vor Gericht gebracht und basiert auf dem Argument, dass die Software mit dem Namen „Hessendata“ eine vorausschauende Polizeiarbeit erleichtert, indem sie Daten zur Erstellung von Verdächtigenprofilen verwendet, noch bevor keine Straftat begangen wurde.
Die Rechtsgrundlage des Gesetzes, das dieses System zulässt, wird von der GFF in Frage gestellt, da sie der Ansicht ist, dass Hessen und Hamburg nicht klar angegeben haben, aus welchen Quellen die Polizei die Daten beziehen kann. Laut GFF haben die Staaten auch nicht angegeben, in welchem Umfang und auf welcher Grundlage Strafverfolgungsbehörden Data Mining durchführen können.
Nach Angaben des Gerichts nutzte die hessische Polizei die ihr über die Hessendata-Plattform eingeräumten Befugnisse jedes Jahr tausendfach aus.
Allerdings argumentierten Landesvertreter, dass die Software unbedingt zur Kriminalprävention notwendig sei und nur andernorts erhobene Daten erhebe und verarbeite.
Palantir, dessen Gotham-KI-System ein Spin-off von Hessendata ist, gab an, nur Datenanalysesoftware und nicht die Daten selbst bereitzustellen.
„Palantir stellt Software in den Dienst von Daten, nicht Daten in den Dienst von Software“Jan Hiesserich, Executive Vice President für Strategie und Kommunikation bei Palantir, sagte der deutschen Zeitung Handelsblatt.
„Es sind unsere Kunden, die im Einklang mit den geltenden gesetzlichen Bestimmungen bestimmen, welche Daten für Ermittlungen relevant sind. »
Allerdings hat der Verfassungsgerichtshof in Karlsruhe am Donnerstag ein Gesetz für nichtig erklärt, das eine Rechtsgrundlage für die Verarbeitung personenbezogener Daten durch die Polizei in Hessen bzw. die Auslegung automatisierter Datenverarbeitung im Land Hamburg als Grundlage für die Verarbeitung personenbezogener Daten vorsah.
Dieses System gilt als verfassungswidrig, da es das Recht auf Selbstbestimmung über personenbezogene Daten verletzt.
„Angesichts der sehr weiten Formulierung der Behörde, sowohl hinsichtlich der Daten als auch der verwendeten Methoden, erreichen die Interventionsgründe noch lange nicht die verfassungsrechtlich geforderte Schwelle des erkennbaren Schadens.“Das Gericht sagte in a kommuniziert.
Einsatz automatisierter Maßnahmen, die in die Rechte des Einzelnen eingreifen „Nur zum Schutz lebenswichtiger Rechtsgüter wie dem Leben, der körperlichen Unversehrtheit oder der Freiheit einer Person berechtigt.“
Mit dem Urteil wurde das Hamburger Gesetz aufgehoben, was bedeutete, dass das System nicht umgesetzt werden würde. Hessen hingegen, wo die Technologie bereits im Einsatz ist, hat bis zum 30. September Zeit, seine Gesetze zu reformieren. In der Zwischenzeit bleibt das Gesetz mit Einschränkungen in Kraft.
Dieser Fall wird auch weitreichendere Auswirkungen haben, erklärt Bijan Moini, Leiter des GFF-Rechtsteams. „Heute hat das Verfassungsgericht der Polizei verboten, Kristallkugeln zu untersuchen, und strenge Richtlinien für die Polizei beim Einsatz intelligenter Software erlassen. Diese Entscheidung ist wichtig, da die Automatisierung der Polizeiarbeit erst der Anfang ist. »
Im Dezember forderte ein Bericht der EU-Agentur für Grundrechte die politischen Entscheidungsträger auf, sicherzustellen, dass Algorithmen der künstlichen Intelligenz (KI), die von Strafverfolgungsbehörden für die vorausschauende Polizeiarbeit eingesetzt werden, getestet werden, um Vorurteile zu erkennen, die zu Diskriminierung führen könnten. Diese Anfrage fällt ausdrücklich in den Regulierungsrahmen für KI (KI-Recht), an dem derzeit vom Gesetzgeber gearbeitet wird.
Der EU-Ministerrat hat versucht, der Polizei mehr Spielraum zu geben, während fortschrittliche Mitglieder des Europäischen Parlaments eine strengere Herangehensweise an das Thema gefordert haben.
[Édité par Anne-Sophie Gayet]
„Gamer. Organizer. Hingebungsvoller Bier-Ninja. Zertifizierter Social-Media-Experte. Introvertiert. Entdecker.“