Debatte nach Flugzeugabsturz Mensch oder Maschine: Wer hat das Sagen?

Von Eva Wolfangel 

Piloten müssen eine komplizierte Technik beherrschen – aber sie dürfen nicht von der Technik beherrscht werden. Foto: Imaginechina
Piloten müssen eine komplizierte Technik beherrschen – aber sie dürfen nicht von der Technik beherrscht werden. Foto: Imaginechina

Nach dem Flugzeugabsturz in Indonesien könnte man meinen, dass Computer die technische Welt regieren. Doch das ist falsch: Wir müssen die Technik nur richtig einschätzen. Ein Meinungsbeitrag von Eva Wolfangel

Stuttgart - Kürzlich in einer Easyjet-Maschine von Stuttgart nach Berlin. Kurz vor der Landung eine Durchsage: „Wir befinden uns im Landeanflug. Die Sicht ist schlecht, es könnte ein wenig holprig werden.“ Was folgt: eine extrem weiche Landung. Daraufhin die Durchsage des Piloten: „Das war der Autopilot. Fast so gut wie ein Mensch. Wir wünschen Ihnen einen schönen Tag!“ Wahre Geschichte, selbst erlebt.

Womöglich konnte es der Autopilot in diesem Fall sogar besser als der Mensch: landen auf Sicht, wenn die Sicht schlecht ist – da sind Menschen im Nachteil mit ihren beiden unzulänglichen Sensoren namens Augen. Computer hingegen, die ihre Informationen von einer Vielzahl an Sensoren erhalten, sind da besser aufgestellt. Es gibt eindeutig einige Dinge, von denen wir profitieren, wenn es um Automatisierung geht.

Softwarefehler bei der Boing 737

Und es gibt Gefahren. Das zeigt die aktuelle Auswertung der Blackbox des Lionair-Flugzeugs, das Ende Oktober in Indonesien mit 189 Menschen an Bord abgestürzt ist. Die Boeing 737 des indonesischen Billigfliegers war mit mehr als 700 Kilometern pro Stunde auf dem Meer zerschellt – offenbar aufgrund eines Softwarefehlers.

Die Dokumente der Blackbox liegen der „New York Times“ vor, die dann auch gleich vom „Krieg Mensch gegen Maschine“ spricht. Das mag sich für die Piloten so angefühlt haben, die laut der Auswertung des Flugschreibers offenbar mehr als 20-mal gegen die Software gegensteuerten, die wiederum immer wieder versuchte, die Spitze des Flugzeugs zu senken. Am Ende hat die Software gewonnen, die eigentlich natürlich genau das Gegenteil tun soll: für Sicherheit sorgen. Die beim Boeing-Modell 737 Max eingeführte sogenannte MCAS-Software (Maneuvering Characteristics Augmentation System) soll im Notfall helfen, eine Maschine zu stabilisieren, wenn sie zu wenig Geschwindigkeit hat und deshalb ein sogenannter Strömungsabriss droht – also die Tragflächen nicht mehr genügend Auftrieb erzeugen. Doch offenbar gab es Probleme mit mindestens einem Sensor, der das Flugzeug in einer Lage sah, in der die Automatik eingreifen musste. Und offenbar waren die Piloten nicht darüber informiert, dass und wie sie diese Software stoppen können.

Unzuverlässige Sensoren

Das ist das eigentlich Tragische an diesem Unfall: Sensoren sind unzuverlässig. Sie altern, die können verschmutzt sein oder unter Hitze, Säure oder anderen Umweltfaktoren gelitten haben. Man darf sich nicht darauf verlassen, dass ein Sensor immer funktioniert, und in der Folge auch nicht darauf, dass die maschinelle Entscheidung, die daraus resultiert, richtig ist.

In sicherheitsrelevanten Fällen gibt es deshalb meist ein redundantes System, also verschiedene Arten von Sensoren, die zum gleichen Messergebnis kommen müssen, so dass wenigsten zwei ausfallen oder falsch liegen müssten, um einen solchen Unfall zu verursachen. Ob das hier der Fall war, ist nicht bekannt. Die „New York Times“ zitiert einige Piloten, die Boeing vorwerfen, nach dem Einbau der Software Piloten nicht aufgeklärt zu haben, wie der Computer gestoppt werden kann.

Automatisierung verhindert Unfälle

Mit einem „Krieg Mensch gegen Maschine“ hat das alles aber herzlich wenig zu tun. Eher mit menschlichen Fehlern und Schlampigkeit bei Boeing, da die neue Software offenbar nicht hinreichend dokumentiert wurde. Das ist ein Thema, das Experten immer wieder kritisieren: Je abhängiger wir uns von Software machen, desto sorgfältiger muss diese geschrieben und dokumentiert sein. Doch das ist noch immer alles andere als Alltag in der Branche.

Der Vorfall und die Debatte darum zeigen vor allem eins, aus dem wir lernen können für die Zukunft, in der Automatisierung eine wachsende Rolle spielen wird – und das zu Recht, denn in aller Regel verhindert sie Unfälle: Der Mensch muss im Notfall das letzte Wort haben. Diese schlichte Erkenntnis ist weit weniger spektakulär als mahnende Meinungsbeiträge von Kritikern wie etwa des Philosophen Nick Bostrom, der vor der Superintelligenz warnt und einen Notschalter fordert. Und dann im nächsten Moment daran zweifelt, ob so ein Notschalter überhaupt funktionieren könnte, weil eine Superintelligenz den Menschen sicherlich durchschauen und den Notschalter deaktivieren würde.

Überschätzte Technik

Nein, es ist alles viel einfacher. Wir sind nicht nur meilenweit entfernt von einer möglichen Superintelligenz, wir haben es derzeit sogar leicht, uns gegen die Maschinen zu behaupten. Wenn wir endlich anfangen, deren Natur ernst zu nehmen und uns auf diese einzustellen.

Hier haben die Verantwortlichen in diesem Fall versagt. Die Menschen waren offenbar nicht darüber informiert, wie sich die Software abstellen lässt – und diesen Schritt durchführen zu können, scheint auch nicht intuitiv möglich gewesen zu sein. Man darf getrost davon ausgehen, dass die Piloten in der Todesgefahr alles probiert haben, was sie aus ihren Erfahrungen kannten. Das darf nicht passieren.

Und es hat etwas mit der Überschätzung der Technik zu tun: Wenn es offenbar bei dieser Software nur schwer möglich ist, sie wieder abzuschalten, steckt dahinter der Gedanke, dass sie immer richtig liegen wird. Das ist falsch. Technik ist anfällig – und davon sollten wir immer ausgehen. Deshalb gehört die Anleitung, wie der Mensch die Kontrolle übernehmen kann, direkt an die Stelle, an der dieser Mensch sitzt. So auffällig und aufdringlich wie der Nothammer im Bus oder die Notbremse in der S-Bahn. Dann können wir uns beruhigt helfen lassen von der Technik.

Lesen Sie jetzt