Menschen haben moralische Überzeugungen, denken über Gut und Böse nach, stellen ethische Überlegungen an. Dabei spielt die Verantwortung für Entscheidungen, die auch anders hätten ausfallen können, eine große Rolle. Zunehmend werden in vielen Bereichen der Lebenswelt sowie spezialisierterer Domänen Verfahren automatisiert, werden Entscheidungen und Interaktionen an Algorithmen, robotische Systeme oder technische Vorrichtungen übertragen. Die rasend schnelle Verbreitung von neuen Instanzen künstlicher Intelligenz, etwa in den vielfältig verfügbaren Angeboten generativer KI, lässt sich als eine besonders auffällige Variante davon verstehen, aber auch in Pflege, Verkehr, Wirtschaft oder militärischer Technik zeigen sich ganz ähnliche Tendenzen.

Dadurch werden neue Fragen aufgeworfen: Wer hat eigentlich die Kontrolle über solche Entwicklungen? Wer ist verantwortlich für die Konsequenzen des Einsatzes von – womöglich undurchschauter oder nicht rekonstruierbarer – Technik? Wie lassen sich Prozesse rechtlich regeln, in denen Menschen mit automatisierten Akteuren zu tun haben, mit diesen interagieren, von deren Outputs abhängen? Können wir Maschinen Entscheidungen zuschreiben, haben sie ein Bewusstsein oder könnten es entwickeln – und damit eventuell auch moralische Rechte haben? Können wir sie umgekehrt vielleicht auch unmittelbar als moralische Agenten konstruieren? – In unserer Vorlesungsreihe möchten wir Fragen wie diese und weitere Aspekte mit Wissenschaftlerinnen und Wissenschaftlern u. a. aus der Philosophie und aus Sozial-, Technik-, Kultur- und Rechtswissenschaft erörtern.

Einführungsvideo zur Reihe „Maschine und Moral“

Achtung! Ausnahmsweise ein Donnerstagstermin am 15. Mai 2025

Die digitale Transformation durchdringt alle Lebensbereiche und betrifft uns alle. Durch die Nutzung von digitaler Informationstechnologie, Smartphones, Sozialen Netzwerken, Navigations-Apps oder Fitnesstrackern generieren wir alle jeden Tag zahlreiche Daten. Die Nutzungs- und Verwertungsmöglichkeit dieser Daten ist allerdings keinesfalls gleichmäßig verteilt, sondern kumuliert sich bei datenmächtigen Akteuren. Diese Datenmacht manifestiert sich als eine Form informationeller Machtasymmetrie, da die Fähigkeit, riesige Datenmengen nahezu unbegrenzt für eigene Zwecke zu extrahieren und zu nutzen, bestimmte Institutionen in die Lage versetzt, das reale Leben des Einzelnen, die Märkte, die öffentliche Meinungsbildung und die Produktion und Wahrnehmung von Wissen zu beeinflussen. Prädiktive Technologien, wie KI-basierte Vorhersagen, z.B. zur Kreditwürdigkeit können diskriminierende Praktiken gegenüber bestimmten Personen oder Gruppen ermöglichen, die individuelle und kollektive Privatsphäre verletzen, die persönliche Autonomie manipulieren, indem sie gezielt gefährdete Nutzerinnen ansprechen, die Ausübung von Rechten und den Rechtsschutz einschränken oder demokratische Prozesse untergraben. Datenmacht ist deshalb eine Herausforderung für rechtsstaatliche Strukturen.

Hannah Ruschemeier ist seit 2022 Juniorprofessorin für Öffentliches Recht mit Schwerpunkt Datenschutzrecht/Recht der Digitalisierung (Tenure Track W 3) an der Rechtswissenschaftlichen Fakultät der FernUniversität in Hagen. Sie hat Rechtswissenschaft an der Westfälischen Wilhelms-Universität Münster und der National and Kapodistrian University Athen studiert. 2018 wurde sie mit der Dissertation zum additiven Grundrechtseingriff an der Heinrich-Heine-Universität in Düsseldorf promoviert. In ihrer Doktorarbeit hat sie verfassungsrechtliche Maßstäbe für die Erfassung von Belastungskumulationen erarbeitet. Nach ihrem Rechtsreferendariat und dem Zweiten Staatsexamen war sie am Center for Advanced Internet Studies (CAIS) in Bochum zunächst als Forschungsreferentin im Projekt „Künstliche Intelligenz in Staat und Verwaltung“ und im Anschluss als Principal Investigator Rechtswissenschaften im Team ELSI (ethical, legal and social issues of digitalisation) tätig.

Hannah Ruschemeier ist Vorstandsmitglied des RAILS e.V (Robotics and AI Law Society), Mitherausgeberin der Zeitschrift Legal Tech im Nomos Verlag und engagiert sich als Mentorin beim Deutschen Juristinnenbund. Sie ist als assoziierte Forscherin weiterhin mit dem CAIS NRW verbunden und Mitglied des Advisory Boards bei User Rights.

Zu ihren Forschungsschwerpunkten zählen neue Eingriffsformen in Grundrechte, digitale Aspekte von Verwaltungs- und Verfassungsrecht, rechtstheoretische Grundlagen der Digitalisierung, Datenschutzrecht und rechtliche Aspekte von Privatheit.

KI ist in kürzester Zeit zentral in vielen Bereichen unseres Lebens geworden. Wir nutzen sie zum Schreiben (wissenschaftlicher) Texte, KI verbessert die Vorhersage von Wetter- und Klimamodellen und unterstützt bei der Vermeidung technischer oder natürlicher Risiken. KI wird dort eingesetzt, wo Menschen mit der Komplexität lebensweltlicher Problemlagen überfordert sind. Gleichzeitig erhöht KI die Komplexität – wir sprechen hier oftmals von der Black Box KI, die zu nicht nachvollziehbaren Entscheidungen führt.

Dieser gegenteilige Effekt von KI zur Komplexitätsvermeidung und -erhöhung sowie deren ethische wie epistemische Bedeutung ist Gegenstand dieses Vortrags. Dabei wird ein spezielles Augenmerk auf die ethischen Herausforderungen im Umgang mit KI heute gesetzt.

Prof. Dr. Dr. Rafaela Hillerbrand arbeitet seit 2015 als Professorin für Technikethik und Wissenschaftsphilosophie am Karlsruher Institut für Technologie, KIT. Ihre Forschungsgruppe PhilETAS, Philosophy of Engineering, Technology Assessment, and Science befasst sich mit Fragen der Energie, Klima und Technikethik, u.a. mit einem Fokus auf KI. Seit 2019 leitet Hillerbrand als Gründungsdirektorin die KIT Academy for Responsible Research, Teaching, and Innovation, ARRTI, in der ethical literacy am KIT durch Lehre und Forschung sowie Innovationstätigkeiten gefördert und verankert werden soll. Hillerbrands Arbeit ist dabei oft interdisziplinär und in enger Kooperation mit Klimawissenschaftlern, Ingenieuren, Politikern und anderen Entscheidungsträgern.

Hillerbrand ist promovierte Philosophin und promovierte Physikerin, beide Arbeiten wurden mit summa cum laude (Auszeichnung) bewertet. Für ihre Forschungsarbeiten in theoretischer Physik wie in der Philosophie wurde sie vielfach ausgezeichnet. Neben zahlreichen Forschungs-Drittmittel (u.a. DFG, NWO, BMBF) ist Hillerbrand Mitglied verschiedener Organisationen; u.a. ist sie seit 2020 Ordentliches Mitglied von acatech, der Deutschen Akademie der Technikwissenschaften. Bevor sie an das KIT kam, hatte Hillerbrand Professuren an der Technischen Universität in Delft sowie der RWTH Aachen. Bis 2008 forschte sie als Senior Research Fellow an der University of Oxford. Hillerbrand ist Mitglied verschiedener Beiräte in Wissenschaft und Industrie und berät regelmäßig national wie international Politik in Themen der Technikethik.

Künstliche Intelligenz (KI) beeindruckt durch ihre Fähigkeit, komplexe Aufgaben wie Bilderkennung und Sprachgenerierung zu übernehmen oder sogar kreative Leistungen wie Musikkomposition zu erbringen. Doch hinter dem aktuellen Hype stellen sich grundlegende Fragen: Was kann KI tatsächlich leisten und welche Kompetenzen benötigen wir, um sie kritisch, effektiv und verantwortungsvoll zu nutzen? Der Vortrag beleuchtet, wie erklärbare KI-Methoden dazu beitragen können, Vertrauen sinnvoll zu kalibrieren, Fehlanwendungen zu vermeiden und das Potential von KI-Technologien auszuschöpfen. In meinem Vortrag zeige ich, was KI-Systeme wirklich leisten und wie sich Mensch und Maschine in ihrem Zusammenspiel sinnvoll ergänzen, aber nicht ersetzen sollten. Der Vortrag plädiert für eine breit angelegte Bildungsoffensive, die technisches Verständnis, kritische Reflexion und mediale Kompetenz vermittelt. Es werden konkrete Handlungsfelder vorgestellt – von der schulischen und universitären Ausbildung über betriebliche Weiterbildung bis hin zur Gestaltung von Gebrauchsinformationen für KI-gestützte Software. Anhand von praktischen Beispielen wird erläutert, wie generative KI in der schulischen und universitären Ausbildung lernfördernd eingesetzt werden kann.

Elisabeth André ist Professorin für Informatik und Gründerin des Lehrstuhls für Menschzentrierte Künstliche Intelligenz an der Universität Augsburg. Ihre Forschung zeichnet sich durch einen interdisziplinären Ansatz aus, der sich an der Schnittstelle zwischen Künstlicher Intelligenz und Mensch-Maschine-Interaktion bewegt. Ihre Arbeiten wurden mit zahlreichen renommierten Auszeichnungen gewürdigt, darunter der Gottfried Wilhelm Leibniz-Preis 2021, der bedeutendste und höchstdotierte Forschungspreis in Deutschland. 2019 wurde sie von der Gesellschaft für Informatik (GI) als eine der zehn prägenden Persönlichkeiten in der Geschichte der deutschen KI geehrt. Aufgrund ihrer herausragenden Forschungsleistungen wurde sie in die Nationale Akademie der Wissenschaften Leopoldina, die Academia Europaea und die Bayerische Akademie der Wissenschaften aufgenommen. Kürzlich wurde sie zudem in die Deutsche Akademie der Technikwissenschaften, acatech, berufen. Sie ist außerdem Trägerin des Bayerischen Verdienstordens.

Die Nutzung künstlich intelligenter Konversationssysteme wie ChatGPT oder DeepSeek nimmt weltweit rasant zu. Mit realistisch klingenden Stimmen, der Verwendung des Ich-Pronomens und sozialen Hinweisreizen wie Emojis imitieren diese Systeme zunehmend Merkmale zwischenmenschlicher Kommunikation. Forschungen, darunter aktuelle Studien des Robopsychology Labs, zeigen, dass Nutzerinnen und Nutzer Künstliche Intelligenz häufig anthropomorphisieren, ihr also menschliche Eigenschaften wie Emotionalität, Intentionalität oder Persönlichkeit zuschreiben. Anthropomorphismus kann das Bedürfnis nach sozialer Verbundenheit bedienen, birgt jedoch auch potenzielle Risiken: So könnten Personen, die KI stärker vermenschlichen, etwa die Vertrauenswürdigkeit KI-generierter Inhalte überschätzen und fehlerhafte Informationen dadurch weniger kritisch hinterfragen. Anthropomorphismus ist ein weit verbreitetes, jedoch individuell und kontextuell variierendes Phänomen. Neuere Befunde deuten darauf hin, dass insbesondere einsame Personen oder solche mit geringerem Wissen über KI dazu neigen, Maschinen stärker zu vermenschlichen. Diese Erkenntnisse unterstreichen die Notwendigkeit, KI-Kompetenz in der breiten Bevölkerung zu fördern. Hierzu haben Mara und ihr Team kreative Vermittlungsformate entwickelt und evaluiert, etwa unterhaltsame Songs zur Demystifizierung von Künstlicher Intelligenz, die in Zusammenarbeit mit populären Musikerinnen und Musikern entstanden sind. – Der Vortrag beleuchtet psychologische Mechanismen des Anthropomorphismus, seine Auswirkungen auf die Mensch-Maschine-Beziehung sowie Strategien zur Förderung von KI-Verständnis in einer zunehmend KI-geprägten Welt.

Martina Mara ist Professorin für Psychologie der Künstlichen Intelligenz & Robotik und Leiterin des Robopsychology Labs an der Johannes Kepler Universität Linz. Ihre Forschungsschwerpunkte umfassen Anthropomorphismus, Vertrauen in der Mensch-Maschine-Kollaboration, Erklärbare Künstliche Intelligenz und Strategien zur breiten Förderung von KI-Kompetenz. Sie promovierte 2014 an der Universität Koblenz-Landau zur Akzeptanz humanoider Roboter und habilitierte 2022 an der Universität Nürnberg. Vor ihrer Professur war sie lange Jahre im außeruniversitären Bereich tätig, unter anderem am Ars Electronica Futurelab, wo sie Art-Science-Kollaborationen und F&E-Projekte mit internationalen Technologie-Unternehmen verantwortete. Martina Mara ist Mitbegründerin der Initiative Digitalisierung Chancengerecht (IDC), Aufsichtsrätin der Österreichischen Forschungsförderungsgesellschaft (FFG) und Preisträgerin mehrerer Auszeichnungen, darunter der Käthe-Leichter-Preis und der Frauenpreis der Stadt Wien. Ein weiterer Schwerpunkt ihrer Arbeit liegt in der Wissenschaftskommunikation, etwa durch öffentliche Vorträge und Ausstellungen zu den Forschungsthemen des Robopsychology Labs.

Der Einsatz von Künstlicher Intelligenz und robotischen Systemen in der Medizin steht im Kontext des Spannungsfeldes aus Personalmangel bzw. Überlastung des medizinisch/pflegerischen Personals, erhöhtem Bedarf an Gesundheitsdienstleistungen aufgrund des steigenden Anteils an älteren Menschen in der Bevölkerung, steigenden Kosten der Gesundheitsversorgung und hohen Erwartungen an Kommuni­kationsfähigkeiten und Behandlungsqualität in emotional herausfordernden Situationen – sowohl der Patient:innen als auch des medizinischen Personals. Technologien haben hier auf der einen Seite das Potential das Personal zu entlasten und Leistungen individualisiert anzubieten. Auf der anderen Seite können sie aber auch zur Kostensenkung und Entpersonalisierung von Gesundheitsdienstleistungen führen. In dem Vortrag werden zur Auflösung dieser Konflikte Assistenztechnologien vorgestellt, die sich durch eine enge Kooperation zwischen Menschen – sowohl Patient:innen als auch Ärzt:innen und Pflegefachpersonen – und technischen Akteuren auszeichnen. Der Fokus liegt auf der Präsentation der technischen Ansätze und deren Evaluation, aber auch auf der kritischen Einordnung ihres Einsatzes.

Andreas Hein ist seit 2003 Professor an der Universität Oldenburg und seit 2012 Mitglied des Vorstands des Oldenburger Forschungs- und Entwicklungsinstitut für Informatik-Werkzeuge und -Systeme OFFIS sowie seit 2008 Sprecher des Bereichs Gesundheit im OFFIS. Er hat sich intensiv mit der Erforschung von technischen Assistenzsystemen und deren Einbettung insbesondere in die häusliche/pflegerische Versorgung beschäftigt. Sowohl in zahlreichen Forschungsprojekten als auch als Vorsitzender der Kommission für Ethik und Forschungsfolgenabschätzung der Universität Oldenburg hat er sich auch mit der Einbettung dieser Technologien in diesen sensiblen Bereich der Versorgung beschäftigt. Aktuell ist er Sprecher des DFG-Graduiertenkollegs HEARAZ – Hearable-zentrierte Assistenz: Vom Sensor zur Teilhabe, Koordinator des BMBF-geförderten Pflegeinnovationszentrums bzw. des Clusters „Zukunft der Pflege“ sowie Koordinator des European Digital Innovation Hubs CITAH. Von 2019-2020 war er Mitglied der 8. Altersberichtskommission des BMFSFJ zu „Älteren Menschen und Digitali­sierung“.

Der Vortrag Maschine und Bildung – Was sollen wir wissen? Was können wir tun? Was dürfen wir hoffen? Und was ist diese KI? nutzt Immanuel Kants vier berühmte Leitfragen der Philosophie als Ausgangspunkte, um das Spannungsverhältnis von Mensch, Bildung, Medium und Technik in den Blick zu nehmen. Im Rahmen der Vortragsreihe „Maschine und Moral“ der Mainzer Universitätsgespräche nähert sich der Medienpädagoge und Bildungsinformatiker Thomas Knaus dem Thema zunächst bewusst deskriptiv. Auf Basis einer Genealogie der Mensch-Maschine-Interaktion und eines Ausblicks auf aktuelle Medieninnovationen lädt er zur Diskussion darüber ein, inwieweit (generative und kommunikative) KI das Verhältnis von Mensch und Maschine verändert. Wie zuvor Buchdruck und Computer erzeugen mediale und technische Innovationen nicht nur neue Bildungsmöglichkeiten. Sie verändern auch unser Verständnis von Bildung und zeigen hierdurch neue Bildungsbedarfe an. Zu untersuchen ist daher, wie Maschinen unsere Umwelt in immer umfassendere Weise prägen und welche Potentiale und Herausforderungen sich hieraus für Lehren und Lernen ergeben.

Die Frage „Was tun?“ kann in einem bildungsbezogenen Vortrag nicht unbeantwortet bleiben. Bildungspolitik und Öffentlichkeit setzen derzeit vor allem auf die „kompetente Bedienung“ digitaler und KI-basierter Medien, Systeme und Plattformen. Als Erziehungswissenschaftler hat Thomas Knaus diesbezüglich jedoch einige Zweifel: Denn wie lassen sich Kompetenzen im Umgang mit Systemen erwerben, die sich ihren Anwender*innen weitgehend als „Black Box“ präsentieren? Und warum sollten wir Menschen die Maschinen be-dienen – sollte das nicht genau umgekehrt sein? Während „KI-Kompetenz“ oder „AI Literacy“ für die selbstbestimmte Teilhabe in digitalen und KI-basierten Umwelten nötig erscheint, steht doch in Frage, ob sie überhaupt erreichbar ist. Daher thematisiert der Vortrag auch gesellschaftliche und moralische Fragen von KI in Bildungskontexten: Wer profitiert von KI-basierten Bildungsangeboten? Wem eröffnen sich so neue Zugänge, wem werden sie verwehrt? Welche Normierungen benötigt ein verantwortungsbewusster KI-Einsatz in Bildungskontexten, um Beteiligung zu stärken, Inklusion zu ermöglichen und Exklusionen zu verhindern?

Der Vortrag gibt Antwortversuche auf Kants vierfache Fragestellung mit Blick auf KI im Bildungskontext, lädt jedoch vor allem dazu ein, die Fragen in der anschließenden Diskussion gemeinsam weiterzudenken.

Thomas Knaus ist Professor für Erziehungswissenschaft mit dem Schwerpunkt Medienpädagogik und Leiter der Abteilung Medienpädagogik an der PH Ludwigsburg; zuvor war er u. a. als Lehrstuhlvertretung für Allgemeine Erziehungswissenschaft an der Universität Erlangen-Nürnberg, als Wissenschaftlicher Direktor des FTzM in Frankfurt am Main und als Honorarprofessor für Bildungsinformatik am Fachbereich Informatik & Ingenieurwissenschaften der Frankfurt UAS sowie u. a. an der Universität Wien als Gastprofessor tätig. Seine Arbeits- und Forschungsschwerpunkte sind der digitale Wandel in Bildungseinrichtungen, die schulische Medienpädagogik, medienpädagogisches Making, die wissenschaftstheoretische und methodologische Fundierung der Medienpädagogik sowie Bildungsinformatik. Ehrenamtlich engagiert er sich u. a. im Lenkungskreis der Initiative Keine Bildung ohne Medien (KBoM!), im erweiterten Vorstand der Gesellschaft für Medienpädagogik und Kommunikationskultur (GMK) sowie als Sprecher der Fachgruppe Qualitative Forschung.

Die Digitalisierung hat die westlichen Demokratien in den vergangenen Jahrzehnten tiefgreifend verändert. Während das Internet und soziale Medien zunächst als Hoffnungsträger für eine offenere und partizipativere Gesellschaft galten, ist die Skepsis gegenüber ihren Wirkungen auf demokratische Prozesse inzwischen stark gewachsen. Mit der breiten gesellschaftlichen Adaption von KI-Anwendungen stehen wir möglicherweise vor einer neue Phase dieser Entwicklung. In seinem Vortrag beleuchtet der Politikwissenschaftler Thorsten Thiel drei zentrale Bereiche dieses Wandels: die Veränderung der demokratischen Öffentlichkeit, die zunehmende Technisierung staatlicher Entscheidungsprozesse und das Entstehen neuer Formen politischer Beteiligung und Mitbestimmung. Er diskutiert, welche Anpassungen demokratische Systeme unter den Bedingungen von KI benötigen und wie deren wirksame Regulierung aussehen könnte.

Thorsten Thiel ist Professor für Demokratieförderung und Digitalpolitik an der Universität Erfurt. Zuvor war er Leiter der Forschungsgruppe „Demokratie und Digitalisierung“ am Weizenbaum-Institut für die vernetzte Gesellschaft in Berlin und Koordinator des Leibniz-Forschungsverbundes „Krisen einer globalisierten Welt“. In seiner Forschung beschäftigt sich Thorsten Thiel insbesondere mit dem Wandel demokratischer Öffentlichkeit und den Möglichkeiten von politischen Systemen, in diesen regulierend und gestaltend einzugreifen.