Judith Simon spricht in ihrem Gastbeitrag über das Vertrauen in KI. Foto: Maike Nicolai

Fünf Expertinnen und Experten blicken beim Thema Künstliche Intelligenz in die Zukunft. In diesem Gastbeitrag: Judith Simon, Professorin für Ethik in der Informationstechnologie.

Stuttgart - Zum Abschluss unserer Serie rund um das Thema Künstliche Intelligenz haben wir fünf Expertinnen und Experten um einen Blick nach vorne gebeten. In ihren Gastbeiträgen formulieren sie zwischen visionärem Optimismus und Skepsis die Herausforderungen und Chancen, die mit dieser Technologie verbunden sind.

 

In diesem Gastbeitrag schreibt Judith Simon, Professorin für Ethik in der Informationstechnologie an der Universität Hamburg:

„Wenn es um Künstliche Intelligenz geht, ist heute oft maschinelles Lernen gemeint. Es geht darum, große Datenmengen zu analysieren, um Muster zu erkennen, zu klassifizieren oder Prognosen zu erstellen. KI begegnet uns häufig im Alltag, etwa wenn wir Suchmaschinen nutzen oder auf dem Handy navigieren, sie liegt Spracherkennung, Empfehlungssoftware oder der Erstellung von Bewegungsprofilen zugrunde.

Wenn wir auf die Zukunft blicken, dann ist eine Sorge, ein zu blindes Vertrauen in Daten und technische Systeme. Es gibt die Tendenz, dass Menschen automatisierten Entscheidungen mehr vertrauen, weil sie neutral und objektiv wirken, auch wenn sie das nicht sind. Die Daten, die einem Algorithmus zugrunde liegen, können fehlerhaft oder verzerrt sein – oder schlicht gesellschaftliche Ungleichheit spiegeln.

Diskriminierung durch KI

All das kann zu Diskriminierung führen. Ich denke da etwa an die Software Compass, welche in den USA eingesetzt wird, um die Rückfallgefahr von Straftätern vorherzusagen. Es steht inzwischen fest, dass diese Software systematisch Afroamerikaner diskriminiert, indem sie bei ihnen zu häufig ein hohes Rückfallrisiko prognostiziert, wohingegen sie bei Weißen das genaue Gegenteil macht und ein zu geringes Risiko prognostiziert.

Woher kommt dieser Fehler? Bei der Entwicklung solcher Software werden Entscheidungen getroffen, die nicht neutral sind, die Daten können fehlerhaft sein oder einfach ungerechte gesellschaftliche Verhältnisse abbilden. All dies kann Prognosen ungerecht machen. Diese Einsicht brauchen wir aber, wenn KI unsere Zukunft mit gestalten soll. Sie muss nicht nur technisch, sondern auch moralisch gut sein. Die gute Gestaltung und Prüfung solcher Systeme wird in Zukunft immer relevanter werden.“

Wie Johann Jakob Häußermann, Experte für gesellschaftlich verantwortbare Innovation beim Fraunhofer-Institut, die Zukunft der KI einschätzt, lesen Sie hier. Alle Teile unserer Serie zur Künstlichen Intelligenz finden Sie auf dieser Seite.