Die Ethik als Wissenschaft denkt methodisch über Moral und die in der Gesellschaft aktuell herrschenden Regeln und Normen nach. Passen diese Regeln noch? Was ist, wenn es für den digitalen Wandel mit seinen zahlreichen Digitalisierungsthemen wie z.B. Datenschutz, BIG DATA, Transparenz, Sozialen Medien und Künstliche Intelligenz noch keine Regeln gibt? Nach CSR (Corporate Social Responsibility) rückt CDR (Corporate Digital Responsibility) immer mehr in den Vordergrund (vgl. Center for Digital Responsibility). Regulatorische Vorschriften sind in der Entwicklung (vgl. den weltweit ersten Entwurf eines Rechtsrahmes für Künstliche Intelligenz durch die Europäische Kommission). Moral war immer schon sehr anpassungsfähig. Sie war und ist stets das Ergebnis einer bestimmten Ära und deren gesellschaftlichen Entwicklungen. Geprägt von deren Sinn- und Werteorientierungen, Erfahrungen und Traditionen und zahlreicher weiterer insbesondere wirtschaftlichen Faktoren. Moral wandelt beständig ihre Gestalt und ihre Inhalte. Sie ist ein großer Opportunist. Welche neuen moralischen Regeln für den digitalen Wandel müssen wir schaffen? Erste Unternehmen haben sich bereits einen Leitfaden oder Ethik-Kodex für Künstliche Intelligenz gegeben (z.B. 2018 Leitfaden Telekom, 2020 Kodex Bosch: „Künstliche Intelligenz soll dem Menschen dienen“ oder BMW: „Vorrang menschlichen Handelns und menschliche Aufsicht“ auch beim „Internet der Dinge“). Alle wollen sicherstellen, dass auch und gerade für Digitalisierungsfragen eine funktionierende Sensorik und Radarfunktion, unterstützt durch methodisches Rüstzeug in den Unternehmen existiert. Durch die eigene Sinn- und Werte-Orientierung des Unternehmens auch im Bewusstsein der Mitarbeiter führt diese neue Ethik zu einem sensiblen Umgang mit KI-Technologien und Algorithmen. Hierbei kann ein „Digitaler Beirat“ der Garant für „Neues ethisches Denken“ sein (vgl. Deutsche Digitale Beiräte).
*Vgl. Ethik, Moral und Ehre des Digitalen Beirats, in: Aufsichtsrat aktuell 4/2021, Seite 149 ff, Linde Verlag Wien