Till Eisenberg, Leiter des Projektes Cimon bei Airbus Defence and Space Friedrichshafen, stellt das System CIMON vor – ein ballförmiger, frei fliegender Assistent mit künstlicher Intelligenz, der künftig Astronauten bei ihren Aufgaben im All unterstützen soll. Foto: dpa

Künstliche Intelligenz nimmt uns immer mehr Entscheidungen ab. Schon jetzt sind viele davon nicht mehr nachvollziehbar. Die Bürger müssen jetzt Verantwortung übernehmen, meint Daniel Gräfe. Für die IT-Branche müssen KI-Standards für mehr Transparenz geschaffen werden.

Barcelona - Die weltgrößte Mobilfunkmesse in Barcelona zeigt in dieser Woche ihre innovative und komfortable Seite: An den Ständen tauchen die Besucher in Lebenswelten ein, in denen der Handel ihnen die Wünsche von den Augen und vor allem aus den gesammelten Daten abliest. Persönliche Assistenten schlagen ein individuelles Tagesprogramm vor, während Städte auf Auffälligkeiten gescannt und so gesichert werden sollen. Fast immer ist dabei künstliche Intelligenz im Spiel, kurz KI genannt – sie ist eines der Top-Themen der M esse. Die KI, bei der Computer in der Lage sind, selbst zu lernen und Entscheidungen abzuleiten, steckt erst in den Anfängen. Bisher ist sie nur in Teilbereichen dem menschlichen Verstand überlegen. Langfristig wird sie das menschliche Gehirn übertreffen und auch beim Erlernen sozialer Verhaltensweisen Fortschritte erzielen.

Der mögliche Nutzen von künstlicher Intelligenz ist ebenso groß wie ihre Gefahren. Wohnungen und ganze Städte können effizienter gesteuert, aber auch unverhältnismäßig überwacht werden. KI erleichtert die Arbeit und schafft neue Jobs – und vernichtet gleichzeitig existierende. Nutzer von Facebook und Amazon erhalten Nachrichten und Angebote, die ganz auf sie zugeschnitten sind – aber zu wenig Informationen darüber, was andere über dieselbe Sache denken. Die gesellschaftlichen Auswirkungen ihrer Produkte spielen für die ausstellenden Tech-Firmen nur eine untergeordnete Rolle. Sie entwickeln, was möglich ist. Doch welche Anwendungen sollte es besser nicht geben? Und welche Entscheidungen sollten Maschinen überhaupt treffen dürfen?

Die Entscheidungen der Maschinen sind immer schwerer nachvollziehbar

Auf der Messe sagte die Philosophin Paula Boddington in einem der höchst seltenen Vorträge zur Ethik in der Technik, dass „Verantwortung uns zu Menschen macht“. Das kann man nur unterstreichen. Doch immer mehr Menschen sind bereit, Verantwortung an Computer abzugeben, weil es bequemer ist. Zum größeren Problem könnte jedoch werden, dass die Entscheidungen der Maschinen immer schwerer nachvollziehbar sind – selbst von ihren Programmierern.

KI steckt heute selbst in Halbleitern und Chips, die wiederum verbaut werden und sich mit anderen Computern und Systemen vernetzen, die ebenfalls mit künstlicher Intelligenz arbeiten. Es ist nicht mehr nachvollziehbar, wie viel KI überhaupt in einem Produkt oder in einer Dienstleistung steckt und welche Entscheidungen dabei auf welcher Basis getroffen werden. Doch das ist notwendig, wenn es zu klären gilt, wer überhaupt die Verantwortung trägt. Wer haftet für eine Dienstleistung, die sich aus der KI von den verschiedensten Herstellern zusammensetzt? An wen kann sich der Verbraucher wenden, wenn er sich ungerechnet behandelt glaubt?

Die KI der Zukunft geht über die Datenanalysen von Versicherungen weit hinaus

Die KI der Zukunft geht dabei über die Kaufempfehlungen von Amazon oder die Datenanalysen einer Versicherung zur Einstufung der Kunden weit hinaus. Ein „Algorithmen-Tüv“, wie er unter anderem von den Verbraucherzentralen vorgeschlagen wurde, würde wohl zu kurz greifen: Das Zusammenspiel der Algorithmen ist schwer zu durchschauen, wenn diese dabei selbst lernen und sich verändern können. Und doch könnte dieser Tüv ein Anfang sein, damit die Bürger nachvollziehen zu beginnen, wie Entscheidungen, die sie betreffen, zustande kommen. Das Wissen und die Diskussion darüber müssen in die Mitte der Gesellschaft gelangen. Und mit ihnen die Frage, welche KI-Bereiche wie stark kontrolliert werden sollen und welche Mechanismen dafür entwickelt werden können. Diese Entscheidung können nur von Menschen getroffen werden. Das heißt Verantwortung.

daniel.graefe@stzn.de