Menschen haben moralische Überzeugungen, denken über Gut und Böse nach, stellen ethische Überlegungen an. Dabei spielt die Verantwortung für Entscheidungen, die auch anders hätten ausfallen können, eine große Rolle. Zunehmend werden in vielen Bereichen der Lebenswelt sowie spezialisierterer Domänen Verfahren automatisiert, werden Entscheidungen und Interaktionen an Algorithmen, robotische Systeme oder technische Vorrichtungen übertragen. Die rasend schnelle Verbreitung von neuen Instanzen künstlicher Intelligenz, etwa in den vielfältig verfügbaren Angeboten generativer KI, lässt sich als eine besonders auffällige Variante davon verstehen, aber auch in Pflege, Verkehr, Wirtschaft oder militärischer Technik zeigen sich ganz ähnliche Tendenzen.

Dadurch werden neue Fragen aufgeworfen: Wer hat eigentlich die Kontrolle über solche Entwicklungen? Wer ist verantwortlich für die Konsequenzen des Einsatzes von – womöglich undurchschauter oder nicht rekonstruierbarer – Technik? Wie lassen sich Prozesse rechtlich regeln, in denen Menschen mit automatisierten Akteuren zu tun haben, mit diesen interagieren, von deren Outputs abhängen? Können wir Maschinen Entscheidungen zuschreiben, haben sie ein Bewusstsein oder könnten es entwickeln – und damit eventuell auch moralische Rechte haben? Können wir sie umgekehrt vielleicht auch unmittelbar als moralische Agenten konstruieren? – In unserer Vorlesungsreihe möchten wir Fragen wie diese und weitere Aspekte mit Wissenschaftlerinnen und Wissenschaftlern u. a. aus der Philosophie und aus Sozial-, Technik-, Kultur- und Rechtswissenschaft erörtern.

Einführungsvideo zur Reihe „Maschine und Moral“

Achtung! Ausnahmsweise ein Donnerstagstermin am 15. Mai 2025