Der Einsatz künstlicher Intelligenz (KI) ist in aller Munde – und das in durchaus unterschiedlichen, gesellschaftlich relevanten Bereichen: im Personalmanagement, im Straßenverkehr, in der Produktion und in der Vermögensanlage. Eines haben alle Anwendungsmöglichkeiten von KI gemeinsam: Sie haben Auswirkungen auf uns Menschen. Das gilt für die Frage, ob wir künftig die geeigneteren Mitarbeiter und Mitarbeiterinnen finden, ob wir durch autonomes Fahren die Anzahl der Unfälle verringern, durch Automatisierung die Effizienz steigern und ob wir uns von fehleranfälligen Systemen unabhängig machen können. Der Einsatz von KI ist immer auch mit Konsequenzen für uns Menschen und unsere Gemeinschaft verbunden. Im Mittelpunkt der Debatte steht allerdings nicht der Nutzen, der sich für die Individuen und unsere Gesellschaft aus dem sinnvollen Einsatz von KI ergeben könnte, sondern der mögliche Schaden, den wir nehmen könnten. Wir agieren nach der alten, analogen Methode, indem wir Ethik und Moral als Gatekeeper installieren und Verhaltenskodizes im Sinne einer Ethik für Algorithmen aufstellen.
Damit halten wir die alten Machtverhältnisse aufrecht und übersehen, dass KI auch eine Verschiebung von Machtstrukturen impliziert, die in unserer Gesellschaft zunehmend Raum greifen wird. Algorithmen funktionieren über Netzwerke. Alles über eine zentrale Instanz kontrollieren, Verantwortung nicht an die Vielen abgeben zu wollen, ist sinnbildlich für eine analoge Führungskultur, die die öffentliche sowie die wissenschaftliche Debatte um KI dominiert. Netzwerke funktionieren allerdings nicht über die klassischen Hierarchien, sondern über eine Heterarchie – ohne Über- und Unterordnungsverhältnisse.
Es ist zu vermuten, dass Ethik als analoger Tugendwächter nur bedingt sinnvoll wirken kann. Die digitale Technologie ist bereits da und entwickelt sich rasant weiter. Die Ethik hinkt hoffnungslos hinterher und versucht nachträglich mit analogen Mitteln Schadensbegrenzung zu betreiben. Die entscheidende Frage ist: Worum geht es dabei wirklich? Diese Frage stellt sich umso mehr, als Ethik, Moral oder ein Verhaltenskodex, solange daraus kein Gesetz geworden ist, nicht justitiabel sind, so dass sich faktisch niemand daran halten muss. Während im Arbeitskontext ein „Das haben wir schon immer so gemacht“ verpönt und ausdrücklich Veränderungsbereitschaft gefragt ist, begegnen wir dem technologischen Fortschritt mit der Suche nach Sicherheit in unsicheren Zeiten und finden diese Sicherheit in traditionellen Verhaltenskodizes. Die zahlreichen Ethikkommissionen, die sich mit der moralischen Regulierung von KI befassen beweisen, dass wir eine digitale Welt, die wir noch nicht in allen Facetten einschätzen können, berechenbarer machen wollen, indem wir sie mit altbekannten Moralsystemen und damit herkömmlichen Autoritäten abzusichern versuchen.
Statt die Chance zu nutzen, anders zu denken, übertragen wir der Ethik weiterhin die Deutungshoheit, indem wir Verhaltenskodizes entwickeln und damit Verantwortung für Entscheidungen an Moralsysteme delegieren. Faktisch bedarf es umso weniger eines Wertes als der Bereitschaft, Verantwortung zu übernehmen, je berechenbarer wir ein System strukturieren. Die Strategie der Absicherung durch das Aufstellen von Regeln könnte weniger mit Moralität als vielmehr mit unserer Angst vor Kontrollverlust zu tun haben und der Angst davor, uns von unserem geozentrischen Weltbild, das uns als Menschen eine zentrale Position zuweist, verabschieden zu müssen, wenn das eintritt, wovor wir uns am meisten fürchten: Dass die Maschinen die Macht übernehmen.
Technologischer Fortschritt ist regelmäßig verbunden mit einer Zunahme an Komplexität, die aufgrund ihrer technischen Funktionalität Spezialistenwissen erfordert und damit für die große Mehrheit von uns einen Verlust an Kontrolle mit sich bringt. Wir begegnen dieser Entwicklung damit, dass wir die Verantwortung für mögliche negative Konsequenzen an einen Verhaltenskodex, an eine Regel, an Compliance delegieren. Sobald wir die Kreativität der Unsicherheit für uns nutzen statt sie verhindern zu wollen, sobald wir uns mehr Eigenverantwortung zugestehen, könnten wir die öffentliche Debatte verstärkt dahingehend führen, welchen Nutzen KI für das eigene und das Wohl anderer haben könnte, wo wir uns als Menschen Freiräume schaffen, wo wir uns verändern und neu ausrichten könnten. Es könnte sein, dass durch die neuen heterarchischen Strukturen, durch die Selbstorganisation von Netzwerken die Technologie von selbst verschwinden wird, die nicht sinnvoll oder gar schädlich für uns ist – und das ganz ohne Verhaltenskodizes.