PM: Neue Qualität der Einreisekontrollen an EU-Grenzen. “iBorderCtrl” – Rassistischer Science-Fiction-Albtraum oder Realität?
Unter dem Namen “iBorderCtrl” testet die EU eine Software, mit deren Hilfe Einreisende ohne EU-Pass einer Befragung durch eine künstliche Intelligenz einschließlich Lügendetektor unterzogen werden sollen, um ihnen einen „Risiko-Score“ zuzuweisen. Dieser soll die Wahrscheinlichkeit für falsche Aussagen bei der Befragung angeben, was als Grundlage weiterer Kontrollen dienen kann. Wir als Studierendenvertretung stellen uns gegen diese Software und fordern einen humaneren Umgang mit Flüchtenden Menschen.
Das Projekt „iBorderCtrl“ beinhaltet einen virtuellen Grenzbeamten, mit künstlicher Intelligenz ausgestattet. Es soll dann ein Gespräch zwischen dem Avatar und der reisenden Person stattfinden, wobei der Avatar Mimik und Gestik aufzeichnet und auswertet. Nach einer Testphase ergibt sich eine Fehlerquote von 25%, was bedeutet, dass ein nicht unerheblicher Teil der Reisenden falsch eingestuft wird. Trotz der geringen Genauigkeit wird die Software bereits an vier Grenzübergängen in Griechenland, Lettland und Ungarn getestet. Während bisher die Teilnahme freiwillig sei und keine Auswirkungen hätte, liegt die Befürchtung nahe, dass beides nicht so bleiben wird. So oder so wirft die Software und ihr Einsatz viele Fragen und Kritikpunkte auf.
Marie Forster, Referentin für Öffentlichkeitsarbeit im AStA der Uni Hannover führt diese genauer aus: „Es wurden bereits verschiedene Lücken von Wissenschaftler_Innen weltweit benannt. Zum Beispiel die ganz grundlegende Frage nach der Wissenschaftlichkeit von Lügendetektoren. Besonders in Kombination mit Stress bei den Befragten verschieben sich angebliche Indikatoren für die Wahrheitsfindung und es bleibt unklar, ob zum Beispiel ein Zucken wirklich eine Lüge verrät. Außerdem ist die Software aus Perspektive der Persönlichkeitsrechte stark zu kritisieren, da unklar bleibt ob die Aufnahmen gespeichert werden und von wie vielen Menschen sie begutachtet werden. Zudem sind die Kriterien für die Einstufung eines Menschen als ‚gefährlich‘ nicht transparent“.
Weiter stellt sich die Frage nach dem Umgang mit als „gefährlich“ eingestuften Personen: Werden die Beamten trotz der Diagnose der künstlichen Intelligenz unvoreingenommen und sachlich bei weiteren Untersuchungen sein können?
Tjard Bornefeld, Referent für hochschulpolitische Vernetzung ergänzt weitere Kritikpunkte: „Solche Projekte fördern die Ausweitung ständiger Überwachung, zum Beispiel durch die neuen Polizeigesetze oder „Predictive Policing“-Programme. Bei letzterem werden durch eine künstliche Intelligenz angeblich gefährliche Gebiete oder sogar Personen bestimmt. In all diesen Fällen nimmt die Verfolgung von Menschen zu, wobei Rassismus eine immer größere, und reale Vorwürfe eine immer kleinere Rolle spielen. Es entsteht eine neue Normalität verringerter Freiheit und Rechte. Wir verstehen solche Projekte als Kampfansage gegen Menschen ohne EU-Pass, weil ein Generalverdacht hergestellt wird. Scheinbar soll der Kampf gegen Menschen auf der Flucht auf eine weitere Ebene gebracht werden.“
Vor diesen Hintergründen betrachten und kritisieren wir ein Projekt wie “iBorderCtrl”. Eine kritische Auseinandersetzung mit „ethischen und rechtlichen Fragen“ sollte zum Fazit kommen, dieses Projekt zu verhindern, anstatt es zu legitimieren. Wir fordern das beteiligte Institut für Rechtsinformatik der LUH auf, das Projekt nicht weiter zu unterstützen.
Quellen:
Süddeutsche Zeitung, Onlineartikel vom 05.11.: https://www.sueddeutsche.de/digital/grenze-kuenstliche-intelligenz-software-iborderctrl-1.4196243
SpiegelOnline, Onlineartikel vom 19.11.2018: http://www.spiegel.de/netzwelt/web/projekt-iborderctrl-darf-und-kann-ki-luegner-bei-der-einreise-stoppen-a-1238448.html