Bei Grenzkontrollen könnten Computer noch mehr Aufgaben übernehmen. Foto: dpa

Automatisierte Kontrollen sollen die Einreise in die EU beschleunigen. Ein Lügendetektor könnte helfen. Doch es gibt viel Kritik an dieser Methode.

Stuttgart - Ein Lügendetektor könnte künftig Beamten an den EU-Grenzen dabei helfen, Reisende zu kontrollieren. Der Detektor ist Teil eines größeren EU-Projektes zu automatisierten Grenzkontrollen namens intelligentes tragbares Kontrollsystem (iBorderCtrl). In diesem Projekt, das demnächst in eine neunmonatige Probephase mit freiwilligen Probanden starten soll, werden die Reisenden unter anderem von einem Avatar befragt, beispielsweise zum Inhalt ihres Gepäcks, zu ihrer Herkunft und ob es einen Angehörigen oder Freund gibt, der ihre Identität bestätigen kann – und welches Verhältnis sie zu dieser Person haben.

Das System, das auf maschinellem Lernen basiert, „hört“ dabei gar nicht zu, was die befragte Person sagt: Es geht nämlich nicht um den Inhalt des Gesprochenen, sondern darum, wie sich der Betroffene verhält. Ob jemand mutmaßlich lügt, interpretiert das System unter anderem aus feinsten Regungen des Gesichts oder auch der Körpersprache, erklärt Jim O’Shea von der School of Computing, Mathematics and Digital Technology der University of Manchester: „Beispielsweise ob sich jemand im Stuhl vor- oder zurück bewegt.“

Der Einreisende bekommt einen Score vom Detektor, der durch weitere Ergebnisse ergänzt wird, etwa mit Daten aus der biometrischen Gesichtserkennung, Fingerabdrücken und ähnlichem. Dieser Wert wiederum wird an die Grenzbeamten gemeldet, die dann entscheiden, ob sie die Person kontrollieren wollen.

Wozu ein Lügendetecktor

Aber wieso braucht man einen Lügendetektor, wenn doch Gesichtserkennung, Fingerabdrücke und Visa-Kontrolle schon recht zuverlässig sind? „Es ist immer besser, mehrere Faktoren zu haben“, sagt Anastasia Garbi, Koordinatorin des Projektes iBorderCtrl. „Je mehr Informationen Sie über mögliche Aspekte haben, die im Prozess gefälscht werden können, desto genauer ist dieser Prozess insgesamt.“ Sollten also gefälschte Pässe im Spiel sein, die nicht erkannt werden, wäre der Lügendetektor eine Art Backup.

O’Shea und seine Kollegen ließen sich in Bezug auf die Faktoren, die der Lügendetektor als verdächtig erkennt, von Psychologen beraten – wobei schon bekannt ist, woran man Lügen erkennt. All diese Faktoren fließen ins System mit ein, doch zusätzlich sucht sich maschinelles Lernen stets auch eigene Faktoren: Muster in den Trainingsdaten, die Menschen nicht auffallen würden. Dabei handelt es sich um Korrelationen in den Daten, im Verhalten der Gesamtzahl aller lügenden Probanden. Es gebe sicher mehr Faktoren, als bisher bekannt seien, meinen die Forscher, doch leider verrate das System sie nicht. Es ist die bekannte Blackbox-Systematik maschineller Lernverfahren.

Viele Trainingsdaten nötig

Das System hat freilich weitere Schwächen, die unter anderem aus einer sehr geringen Probandenzahl (siehe Infobox) entstehen sowie auch aus der allgemeinen Problematik, die moderne Systeme des maschinellen Lernens mit sich bringen: Sie brauchen große Mengen an Trainingsdaten. „Doch das ist in unserem Fall sehr aufwendig“, sagt O‘Shea. Er müsste sehr viele Menschen bitten, vor einer Kamera zu lügen oder die Wahrheit zu sagen. Da das System recht viele Faktoren identifiziert, kommt ein hoher Rechenaufwand hinzu.

Die Blackbox-Problematik führt möglicherweise zu einem weiteren Problem, wie Tina Krügel sagt: Die Juristin am Institut für Rechtsinformatik der Uni Hannover ist mit ihrem Team für rechtliche und ethische Fragen des Projekts zuständig. Eigentlich sehe die neue Datenschutz-Grundverordnung vor, „dass Betroffene einer automatisierten Einzelfall-Entscheidung“ Informationen über die dahinterliegende Logik erhalten müssen. Das sei kompliziert, denn hier sei natürlich auch die öffentliche Sicherheit betroffen. Auch stelle sich die Frage, wie weit dieser Anspruch tatsächlich reiche, wie ausführlich die Informationen sein müssten.

Nicht nachvollziehbare KI

Warum eine künstliche Intelligenz so oder so entschieden habe, sei nicht einfach nachvollziehbar. „Erklärbare KI ist gerade ein riesiger Forschungsbereich.“ Besteht daher nicht die Gefahr, dass sich die Grenzbeamten von einem solchen Score zu sehr beeinflussen lassen – und dann eben davon ausgehen, dass die Person tatsächlich lügt, anstatt unvoreingenommen an sie heranzutreten? „Wenn man einen Risk-Score vorgelegt bekommt, ist man geneigt, dem nachzugehen“, bestätigt Tina Krügel.

Ihre Gruppe hat deshalb verschiedene Grundlagen für das System vorgeschlagen: Datenkategorien, die zu einer Diskriminierung führen können, fließen nicht in den Risikowert ein. Neben dem „Privacy by design“-Ansatz, der bereits implementiert ist, fordert Krügel für einen Echtbetrieb weitere Maßnahmen, etwa die Supervision durch eine Ethikkommission und ausführliche Schulungen der Beamten.

Was wird aus dem System?

Ob das System am Ende Realität wird, sei noch nicht entschieden, betonen die Forscher. Die Zunahme grenzüberschreitender Kriminalität und des internationalen Terrorismus habe dazu geführt, dass Unterstützungssysteme erforscht werden, so Krügel: „Wir müssen sehen, was funktioniert und wie uns so ein System weiterbringt.“ Deshalb sei es so wichtig, dass das Projekt aus öffentlichen EU-Mitteln gefördert wird und keine Interessen der Wirtschaft einfließen. „Dann ist eine ausführliche ethische Beurteilung garantiert.“

„Am Ende ist es eine Frage, was die Gesellschaft will“, sagt Krügel. Durch Smartphones sei in den vergangenen Jahren die Akzeptanz für biometrische Verfahren wie Gesichtserkennung und Fingerabdrücke stark gestiegen. Wenn man es so sieht, werden uns Avatar-Interviews wohl auch bald normal vorkommen.

Lügendetektor-Projekt

Einreise
Das Projekt „Intelligent Portable Control System“, kurz iBorderCtrl, soll schnellere Grenzkontrollen bei der Einreise in EU-Staaten ermöglichen. Das im September 2016 gestartete Forschungsvorhaben wird von der EU mit 4,5 Millionen Euro unterstützt.

Genauigkeit
Ein zentraler Bestandteil von iBorderCtrl ist der Lügendetektor. Im Experiment wurde 32 Probanden insgesamt je 13 Fragen gestellt. Die Hälfte der Probanden sollte lügen, die andere die Wahrheit sagen. In 75 Prozent der Fälle lag das System durchschnittlich richtig in Bezug auf eine einzelne Frage.