Künstliche Intelligenz, Ethik und Compliance

Dass Compliance nicht bei Recht aufhört, sondern wertebasierte Unternehmensführung unterstützt, darf inzwischen als gesichert gelten. Doch was hat Compliance mit Künstlicher Intelligenz zu tun? Wie verträgt sich Ethik mit Maschinen?

Angeregt durch einen Vortrag von Prof. di Fabio zu den Ergebnissen der Ethik-Kommission automatisiertes und vernetztes Fahren im Rahmen der 40. Tagung des Forum Compliance & Integrity und einem anschliessenden Bericht von Manuela Mackert zu den Digitale Ethik KI-Leitlinien der Telekom möchte ich diese Frage einmal kurz anreißen.

Es ist banal zu verlangen, dass Compliance bzw. die Anforderungen der wertebasierten Unternehmensführung auch dann heranzuziehen ist, wenn Menschen Maschinen produzieren, die – automatisiert- Tätigkeiten verrichten. Die Frage geht aber darüber hinaus. Braucht auch die Maschine eine ethische Guidance? Natürlich nicht, es ist ja eine Maschine, oder?

Betrachtet man ein Beispiel der jüngsten Vergangenheit, so kommen jedoch Zweifel auf, ob Compliance sich auf diesen Standpunkt zurückziehen kann. Facebook hatte im Rahmen eines Projektes mit künstlicher Intelligenz mit zwei sog. Bots zu kämpfen, die sich bald in ihrer eigenen aus dem Englischen entwickelten Sprache unterhielten. Diese war offenbar effizienter, als die vorgegebene Sprache. Nachdem das Projekt mangels Verständnis der neuen Sprache für die Entwickler nicht mehr nachvollziehbar war, mußte es abgeschaltet werden.

Wenn also, wie das Beispiel zeigt, Maschinen mit künstlicher Intelligenz Ergebnisse produzieren (können), die nicht vorhersehbar sind, dann ist Compliance aufgerufen, die daraus resultierenden Risiken zu erkennen, zu bewerten und Rahmenbedigungen zu schaffen, damit das unvermeidlich Unvorhersehbare soweit möglich jedenfalls im Rahmen des Wertekanons des Unternehmens bleibt.

3 Gedanken zu “Künstliche Intelligenz, Ethik und Compliance

  1. Die Frage, wie Künstliche Intelligenz (KI) und Ethik miteinander verbunden werden ist m.E. eines der zentralen gesellschaftlichen Themen heute, da wir am Anfang einer Entwicklung stehen, in der Menschen erstmals weitreichende Kompetenzen in Entscheidungsprozessen an Maschinen abgeben. Wer baut diese Maschinen und bringt ihnen bei, selbstständig zu lernen? Das sind nach wie vor Menschen mit den ihnen eigenen Wertvorstellungen und ethischen Grundsätzen. Was und wie diese Maschinen lernen wird ihnen quasi wie eine DNA “mitgegeben”.
    Eine besondere Gefahr erwächst daraus, das nicht nur das mitgegeben wird, dessen der Mensch sich bewusst ist, sondern auch Reflexe, die im Unbewussten liegen und -wenn überhaupt- nur bedingt als solche Reflexe an die Oberfläche, d.h. in das Bewusstsein vordringen. Anders ausgedrückt: Maschinen übernehmen “Erbgut”, dessen sich ihre Programmierer nicht bewusst sind und das sich damit auch der Steuerung durch Selbstaufsicht und Selbstkorrektur entzieht. Auch Maschinen der zweiten und folgender Generationen, d.h. Maschinen die von Maschinen entwickelt, gebaut und programmiert werden, nehmen diese “Erbanlagen” mit.

    Hier helfen nur universell gültige Grundsätze für die Entwicklung, Überprüfung von Algorithmen und deren Freigabe zum Einsatz. Vorschläge, wie solche Grundsätze aussehen könnten gibt es neben den im Beitrag zitierten Digitale Ethik KI-Leitlinien der Telekom zu Hauf – womit schon ein Problem benannt ist: Viele Köche sind noch keine Garantie dafür, dass das Essen pünktlich auf den Tisch kommt. Manchmal wird zu viel Zeit im Streit um die richtigen Gewürze verloren, während andere Köche schon kräftig ihr versalzenes Süppchen abschmecken.

    Wie ist das mit den Rezepten von Google, Apple, Facebook, Amazon & Co. – schon mal irgendwo eins gelesen? Das aber sind große Player in der Entwicklung von KI. Immerhin – so ganz geheim geht es nicht, hin und wieder wird etwas über die Geschäftspraktiken bekannt, unabhängig davon, ob dabei KI eine Rolle gespielt hat oder nicht. Es geht um den Wertekanon, der als Treiber hinter den Zielen der Entwicklung steht. Noch schwieriger wird es bei den Tech-Unternehmen aus dem Reich der Mitte, deren Geschäftspraktiken dank staatlicher Fürsorge noch weit mehr im Dunklen gedeihen können. Dürfte Huawei nun an unserem 5G-Netz mit bauen oder nicht? Aber so weit müssen wir gar nicht schauen: wer weiß denn gerade, nach welchem Rezept die KI bei der Schufa einen Bonitätsindex zubereitet?

    Transparenz und Kontrolle stehen neben anderen Grundsätzen wie Solidarität, Freiheit und Gerechtigkeit, Wahrung der Menschenrechte, Verlässlichkeit, Einhaltung ethischer Grundsätze etc. zu Recht ganz weit vorn in der Liste der Forderungen an alle, die zur KI forschen, sie entwickeln oder anwenden (wollen).

    Die Einhaltung solcher Grundsätze zu prüfen, wenn sie dann einmal zu Normen, zu bindenden Verpflichtung erwachsen sind, wird die ureigene Aufgabe von Compliance sein. Und bis dahin gibt es genügend Gelegenheit, die Entwicklung solcher Grundsätze, Normen und bindenden Regelungen mit einzufordern und voranzutreiben.

    Europa kommt dabei aus meiner Sicht eine besondere Verantwortung zu. Europe kann auf eine lange demokratische Tradition zurückgreifen, die u.a. geübt darin ist, auch in schwierigen Situationen um tragfähige Kompromisse als Lösungen zu ringen. Bei aller Kritik daran ist die DSGVO so ein Beispiel, wie die Europäische Gemeinschaft es durchaus vermag Standards zu setzen, die Beachtung über den eigenen Einflussbereich hinaus erlangen.

    Hier noch drei Beispiele für Entwürfe von Grundsätzen zum Umgang mit KI (bitte in die Adresszeile des Browsers kopieren):
    https://www.microsoft-berlin.de/corporate-digital-responsibility.aspx#ki-und-ethik
    https://medium.com/@AINowInstitute/after-a-year-of-tech-scandals-our-10-recommendations-for-ai-95b3b2c5e5
    https://d-64.org/wp-content/uploads/2018/11/D64-Grundwerte-KI.pdf
    Viel Spaß beim Lesen und gute Erkenntnisse.

    P.S.: Bisher kommen “nur” Verfahren der sog. “schwachen KI” zum Einsatz, wobei schon diese gemessen an den oben formulierten Grundsätzen mehr oder weniger Schwachpunkte aufweisen, deren Auswirkungen aber noch vergleichsweise gut beherrschbar scheinen. Mit dem Einsatz einer “starken KI” werden sich die Fragen der Ethik in der KI dramatisch deutlicher stellen. Namhafte Wissenschaftler der KI-Forschung gehen derzeit davon aus dass bis zum Einsatz starker KI noch viele Jahre bis einige Jahrzehnte vergehen werden. Bis dahin sollten wir gut vorbereitet sein.

    1. Vielen Dank für diesen sehr interessanten Beitrag und die weiterführenden Hinweise. Wir sind uns einig, dass KI für Compliance und weit darüber hinaus d a s zentrale Thema der nächsten Jahre sein wird. Hier müssen wir mitgestalten und nicht nur von außen betrachten.

Die Kommentarfunktion ist geschlossen.