Handykontrollen bei Geflüchteten, Arbeitslosen, die in sozialen Netzwerken ausgespäht werden, automatisierte Kontrollsysteme: Die Ausweitung von Überwachungsmaßnahmen trifft massiv Bevölkerungsgruppen, die an den Rand gedrängt werden, und danach alle.
Handys werden ausgelesen und WhatsApp-Verläufe durchforstet, um Hinweise auf die Identität von Geflüchteten zu finden. Staatliche Leistungen dienen oft als Legitimation für digitale Überwachung. Auch Sozialhilfeempfänger*innen müssen umfangreiche Eingriffe in die Privatsphäre hinnehmen. Vermögens- und Wohnverhältnisse, Beziehungen und Kontakte werden durchleuchtet.
Jobberater*innen spionieren Sozialhilfeempfänger*innen sogar in sozialen Netzwerken wie Twitter und Facebook aus, wie schon 2015 bekannt wurde. Während die Bundesagentur für Arbeit die Online-Spionage offiziell verurteilt und Seiten sozialer Netzwerke auf den Rechnern ihrer Berater*innen sperrt, ist sie in zahlreichen kommunalen Ämtern Alltagspraxis. Sozialhilfeempfänger*innen wurden in Beratungsgesprächen etwa mit digitalen Beweisen zu Nebeneinkünften wie einem Ebay-Handel konfrontiert und Berater*innen zitierten aus Onlinekommunikation.
Immer mehr Daten werden gesammelt, Datenbanken zusammengeführt und das Recht auf Privatsphäre und Datenschutz wird weiter ausgehöhlt – dabei trifft die Ausweitung der Überwachung zuerst die Bevölkerungsgruppen, die am verletzlichsten sind, wie Arbeitslose oder Geflüchtete.
Eingriffe in die Privatsphäre sind rechtswidrig
“Internationale Menschenrechtsverträge und das Grundgesetz garantieren allen Menschen das Recht auf Achtung der Privatsphäre beziehungsweise das Recht auf informationelle Selbstbestimmung, unabhängig von ihrer Staatsbürgerschaft oder dem Aufenthaltsstatus”, sagt Eric Töpfer vom Deutschen Institut für Menschenrechte in Berlin. “Der Staat hat ein Recht zu wissen, mit wem er es zu tun hat. Das rechtfertigt allerdings keinen Generalverdacht gegenüber Asylsuchenden und anderen Leistungsempfänger*innen. Können diese ihre Identität oder Leistungsansprüche glaubhaft nachweisen, sind Eingriffe in das Recht auf Privatsphäre nicht notwendig.”
Mit Sicherheitsbedenken werden dennoch weitreichende Zugriffe auf digitale Daten gerechtfertigt, neue Gesetze autorisieren die digitale Überwachung. “Das Kernproblem ist die Ignoranz gegenüber dem Recht geflüchteter Menschen auf Privatsphäre und die Missachtung der Risiken ihrer wachsenden „Verdatung“”, so Töpfer. “Diese Ignoranz ist nicht neu. Sie zeigte sich bei der gesetzlichen Regelung zur Auswertung von Datenträgern im Sommer 2017 nur besonders drastisch.”
Das im vergangenen Jahr in Kraft getretene „Gesetz zur besseren Durchsetzung der Ausreisepflicht“ verschärft das Asylrecht und sichert den Behörden den Zugriff auf Handys und andere Geräte von Geflüchteten. Smartphones werden zur Ersatz-ID: Wenn Geflüchtete ihre Identität und Herkunft etwa nicht mit Ausweispapieren belegen können, darf das Bundesamt für Migration und Flüchtlinge (BAMF) Daten von Geräten wie Smartphones, Laptops oder USB-Sticks ohne Richter*ingenehmigung auslesen und auswerten.
Die Flüchtlingsorganisation Pro Asyl kritisierte die „massenhafte Auslesung noch vor Anhörung“ – Geflüchtete würden unter Generalverdacht gestellt. „Das Gesetz schafft die rechtliche Grundlage für den gläsernen Flüchtling: Es muss befürchtet werden, dass nicht kontrolliert werden kann, ob auch private Daten wie Kontakte zu Anwält*innen, Ärzt*innen oder Unterstützer*innen abgegriffen werden“, so die Organisation. In “Gefahrensituationen” darf das BAMF sogar sensible Informationen wie Gesundheitsdaten an andere staatliche Stellen weitergeben.
Geringe Erfolgsquote bei Handy-Kontrollen
Der Erfolg der umstrittenen Handy-Kontrollen ist allerdings bisher gering: Einer Antwort des Bundesinnenministeriums auf eine kleine Anfrage der Linken zufolge sind zwischen Januar und Juli 2018 nur bei zwei Prozent der Auswertungen falsche Angaben aufgefallen. In 7.000 Fällen wurden digitale Daten ausgelesen, in 2.000 Fällen erfolgte eine Auswertung. Bei fast zwei Dritteln der Kontrollen führte die Datenüberprüfung zu keiner Erkenntnis.
Die Juristin Harsha Walia, die mit ihrer Organisation “No One is Illegal” in Kanada Geflüchtete berät, sieht solche Smartphone-Kontrollen kritisch. “Telefoneinträge, Anruflisten und andere digitale Informationen spielen eine wichtige Grundlage für Asylanträge, vor allem wenn es um Glaubwürdigkeit und die Anerkennung als Flüchtling geht”, sagt Harsha Walia. “Auf mobile Daten wird oft zugegriffen – es wird in Kanada zwar als optional angesehen, aber es gibt viel Druck und Zwang auf die Geflüchteten, ihre Daten freizugeben.”
Die Asylexpertin beobachtet, dass der Anerkennungsprozess generell Frauen benachteiligt – die digitale Überwachung wirke wie ein Verstärker des Effekts. “Männer werden eher ernst genommen, ihnen wird schneller geglaubt”, sagt Harsha Walia. “Und Frauen nutzen Technologie anders, je nachdem, woher sie kommen. Sie teilen ihren Familien zum Beispiel noch seltener mit, wie schlimm ihre Situation ist, da sie ihre Kinder und Familie davor schützen wollen – das wird oft gegen sie genutzt.” Die Beamten halten Asylbewerberinnen dann etwa eine Text-Nachricht vor, in der sie ihrer Familie geschrieben haben, dass es ihnen gut geht.
Flüchtlingspolitik ist ein digitales Experimentierfeld, auf dem neben Grenzkontrollsystemen, wie Drohnen und Radarsysteme, sowie digitaler Datenauswertung auch neue Technologien zum Einsatz kommen.
Künstliche Intelligenz hilft auch nicht weiter
Die kanadische Regierung will ein Pilotprojekt entwickeln, das den Asylprozess automatisiert. “Kanada arbeitet an einem massiven AI-System für den Flüchtlingsprozess, bei dem die Anerkennung zunehmend von Künstlicher Intelligenz abhängt”, so Harsha Walia. Als vermeintlich objektives Instrument soll die Software Kritiker*innen entwaffnen und den Prozess fairer gestalten.
Denn bisher wird die Anerkennung von Geflüchteten in Kanada von zahlreichen lokalen Faktoren beeinflusst. “Es ist eine völlig individuelle Erfahrung: Manche Stellen haben eine Anerkennungsrate von zwei Prozent, andere von 70 Prozent, auch die Präferenz von bestimmten Ländern schwankt”, kritisiert Juristin Walia. “Anstatt diese Diskriminierung in einer systematischen Art und Weise zu adressieren, soll Künstliche Intelligenz das Problem lösen.”
Fälle aus anderen Ländern haben gezeigt, dass Automatisierung Benachteiligungen und soziale Ungleichheit eher fortschreibt als löst: Software, die vorausschauende Polizeiarbeit ermöglichen soll, oder die Rückfallwahrscheinlichkeit von Straftäter*innen berechnet, verstärkt etwa bestehenden Rassismus im Polizei- und Justizsystem. In den USA war ein Programm zur Berechnung von Pflegegeld fehlerhaft konfiguriert, so dass Pflegebedürftigen zu Unrecht Bezüge gestrichen wurden.
Digitale Fehlentscheidungen haben schwere Folgen, während die Entscheidungsprozesse oft intransparent und von außen schwer nachzuvollziehen sind. Migrations- und Asylbewerber*innenrecht halten Forscher*innen des Citizen Lab von der Universität von Toronto für ein “Hochrisikolabor” für Automatisierung: “Dieser Kontext ist besonders bedenklich, da schutzbedürftige und einkommensschwache Bevölkerungsgruppen wie Nicht-Staatsangehörige oft weniger Zugang zu Menschenrechtsschutz und weniger Mittel für die Verteidigung dieser Rechte haben”, warnt ihr Bericht. Die Verschiebung der digitalen Grenzen entscheidet sich oft bei verletzlichen Bevölkerungsgruppen – bevor die Überwachung auch auf andere Bereiche und Gesellschaftsgruppen ausgedehnt wird.