Diese Debatte müssen wir erst mal führen

Der Bundestag hat eine Enquete-Kommission ins Leben gerufen. Allerdings ohne eine dezidiert kirchliche Stimme.

Kopecz: Ich denke, die Kirche muss in jedem Fall Teil der gesellschaftlichen Diskussion sein. Denn es geht ja auch um Werte. Das ist einer der Gründe, warum der AEU sich zum Thema äußert, warum wir auch im Herbst eine Tagung in Bad Boll zum Thema veranstaltet haben. Als Unternehmer kommen wir aus der Praxis, daher ist unser Standpunkt auch nie nur ein rein theoretischer.

Ich erwähnte das Thema Angst. Empfinden Sie Angst oder Unbehagen vor KI als berechtigt? Immerhin geht es hier um nichts weniger als unsere Grundwerte und – vielleicht für den Einzelnen noch wichtiger – um seine Vorstellung davon, was ein Mensch wert ist, wenn er neben künstlicher Intelligenz existiert?

Kopecz: Angst ist nie ein guter Ratgeber. Dass wir vorsichtig sind und auch Dinge mit Abstand betrachten, macht sicherlich Sinn. Wir sollten aber nicht generell Fortschritt verteufeln. Es gibt Risiken und es gibt Chancen.

Viele Jobs werden wegfallen.

Kopecz: Das stimmt. Studien gehen von 20 bis 30 Prozent aus. Die einzige Möglichkeit, die wir haben, ist das Ausbildungsniveau zu erhöhen, denn es werden auch neue qualifizierte Jobs enstehen. Wir werden diesen Umbruch erleben und wir müssen versuchen, ihn frühzeitig zu gestalten. Das ist die einzige Möglichkeit, die wir haben, denn das Tempo, mit dem diese Veränderung stattfindet, werden wir nicht beeinflussen können.

Und die Chancen liegen Ihrer Meinung nach wo genau?

Kopecz: Wir werden in vielen Bereichen neue Erkenntnisse gewinnen, weil wir Zugang zu Informationen haben, die wir vorher in der Form nicht hatten. Und die gesellschaftliche Diskussion, die wir führen werden, das ist eine Chance, uns als Gesellschaft weiterzuentwickeln.

Erklären Sie das bitte.

Kopecz: Nehmen wir autonom fahrende Fahrzeuge. Ein populäres Beispiel, wenn es um KI und Ethik geht. Selbstfahrende Autos gibt es jetzt noch nicht auf den Straßen. Mit den Konzepten allerdings – also, welche Regeln diese Fahrzeuge befolgen sollen oder welche juristischen Randbedingungen gelten sollen – damit befassen sich aktuell die großen Autohersteller.

Da muss ich an einen Artikel von Zeit-Online denken, mit der plakativen Überschrift: „Der Todesalgorithmus“. Der Algorithmus entscheidet im Zweifel über Leben und Tod. Wie kann man eine Maschine so programmieren, dass sie ein moralisches Dilemma löst?

Kopecz: Die Maschine kann das genauso wenig lösen, wie wir das selbst lösen können. Auch wir leben mit moralischen oder ethischen Dilemmata, auf die wir nicht immer „gute“ Antworten haben. Wir müssen mit den Konsequenzen unserer Entscheidungen leben und das wird für künstliche Systeme auch zutreffen. Die Frage ist: Sind wir bereit, mit diesen Konsequenzen zu leben, wenn eine KI eine Entscheidung gefällt hat? Akzeptieren wir diese Entscheidung, weil sie von einer KI getroffen wurde oder akzeptieren wir sie nicht, weil wir lieber eine menschliche Entscheidung haben möchten? Auch diese Diskussion haben wir noch nicht geführt und die ist essentiell. Denn der Algorithmus steht nicht fest. Lernende bzw. nicht lineare Systeme kennzeichnen sich dadurch, dass sie sich verändern und dass sie dadurch auch intransparent für uns werden. Das liegt in ihrer Natur.

Aber wäre in solchen Fällen nicht der Programmierer haftbar, also derjenige, der den Algorithmus für eine KI geschrieben hat?

Kopecz: Im Zweifel hat er den Algorithmus programmiert – aber da es sich um ein lernendes System handelt, hat die KI die Entscheidung selbst getroffen. Vielleicht auch die falsche.

Der Mensch hat das Bedürfnis, andere Menschen für Fehlverhalten zu sanktionieren. Eine Maschine kann man schwerlich bestrafen. Was bedeutet das für unseren Rechtsstaat?

Kopecz: In der Tat werden bestimmte Realitäten oder juristische Begriffe nicht mehr funktionieren, denn wir können dem Algorithmus keinen Fehler vorwerfen, wenn das System anhand von Daten etwas gelernt hat, was 100.000 mal zu einem guten Ergebnis führt und einmal zu einem schlechten.

Wenn ich Sie richtig verstehe, wird diese Technik und die Diskussion darüber vor allem unser Menschenbild wandeln?

Kopecz: Genau. Wir als Gesellschaft müssen uns darüber klar werden, was in diesem Zusammenhang natürliche Intelligenz ist. Wir kommen da an Fragen, die unser Selbstbild betreffen. Das sind philosophische  und theologische Fragestellungen. Wir erschaffen ein künstliches Gegenüber, das für uns nicht immer transparent ist. Aber: Dieses Gegenüber ist genauso wenig transparent, wie der Mensch selbst.

Interview: Karola Kallweit (für evangelisch.de)


Der Physiker und Theologe Jörg Kopecz promovierte in Neuroinformatik über lernende autonome Systeme. Bis vor Kurzem hat er Finanzen und Organisation des Deutschen Evangelischen Kirchentags geleitet. Seit 2016 ist er selbständig als Experte und Berater für Digitale Transformation und als Dozent für Unternehmensführung und Ethik an der Hochschule für Ökonomie & Management in Essen und Mannheim tätig.

Quelle: Evangelische Kirche in Deutschland: Nachrichten ( http://www.ekd.de/rss/editorials.xml)
Bitte lesen Sie den ganzen Text auf der Originalseite des Feeds – zur Quelle

Schreibe einen Kommentar