Teilen:
04.09.2023 13:32
Beratende KI-Assistenten: In die Verantwortung genommen
Auch wenn Menschen KI-basierte Assistenten als reine Werkzeuge betrachten, schreiben sie ihnen Mitverantwortung für Entscheidungen zu, wie eine neue Studie zeigt.
In Zukunftsszenarien navigieren KI-basierte Systeme autonome Fahrzeige völlig selbständig durch den Verkehr. Experimentelle Ergebnisse haben gezeigt, dass solche futuristischen KI-Systeme von Probandinnen und Probanden als ebenso verantwortlich wie Menschen eingestuft werden, wenn sie eigenständig Verkehrsentscheidungen treffen. Von dieser Art von Autonomie sind derzeit gängige KI-Assistenten jedoch weit entfernt. Sie versorgen menschliche Nutzer lediglich mit unterstützenden Informationen wie Navigations- und Fahrhilfen. Wer ist also in diesen alltäglichen Fällen verantwortlich, wenn etwas richtig oder falsch läuft? Der menschliche Nutzer? Oder der KI-Assistent? Ein Team um Louis Longin vom Lehrstuhl für Philosophie des Geistes hat nun eben diese Fragen untersucht.
“Wir alle haben intelligente Assistenten in unseren Taschen”, sagt Longin. „Aber ein Großteil der experimentellen Ergebnisse, die wir zu Verantwortungslücken haben, konzentriert sich auf Roboter oder autonome Fahrzeuge, bei denen die KI buchstäblich auf dem Fahrersitz sitzt und für uns entscheidet. Die Untersuchung von Fällen, in denen wir zwar immer noch die endgültigen Entscheidungen treffen, die KI aber eher wie ein ausgeklügeltes Instrument einsetzen, ist daher wichtig.“
Der auf die Interaktion zwischen Mensch und KI spezialisierte Philosoph Longin untersuchte gemeinsam mit seinen Kollegen Dr. Bahador Bahrami und Prof. Ophelia Deroy, Inhaberin des Lehrstuhls für Philosophy of Mind, wie 940 Versuchspersonen einen menschlichen Fahrer beurteilten, der entweder einen intelligenten KI-gestützten verbalen Assistenten, einen intelligenten KI-gestützten taktilen Assistenten oder ein KI-freies Navigationsinstrument benutzte. Zudem gaben die Teilnehmenden an, ob sie die Navigationshilfe als verantwortlich oder als bloßes Hilfsmittel einschätzten.
Ambivalenter Status von KI-Assistenten
Die Ergebnisse zeigen eine Ambivalenz auf: Einerseits wurden die intelligenten Assistenten nur als Hilfsmittel betrachtet, andererseits wurde ihnen aber auch Mitverantwortung für den Erfolg oder Misserfolg der menschlichen Fahrer zugeschrieben. Bei der nicht von einer KI gesteuerten Navigationshilfe dagegen gab es keine derartige Aufteilung der Verantwortung.
Nicht weniger überraschend für die Autoren war, dass die intelligenten Assistenten eher für positive als für negative Ereignisse verantwortlich gemacht wurden. “Die Menschen legen vielleicht unterschiedliche moralische Maßstäbe für Lob und Tadel an. Wenn ein Unfall abgewendet wird und kein Schaden entsteht, werden die Standards gelockert. Dadurch weisen Menschen nichtmenschlichen Systemen eher Lob als Tadel zu”, vermutet Bahrami, Experte für kollektive Verantwortung.
Sprache spielt keine Rolle
In der Studie fanden die Autoren keinen Unterschied zwischen intelligenten Assistenten, die Sprache verwendeten, und solchen, die ihre Nutzer nur durch ein taktiles Vibrieren des Rads alarmierten. „Beide lieferten in diesem Fall die gleichen Informationen: ‘Hey, Vorsicht, da vorne ist etwas’, aber natürlich liefert ChatGPT in der Praxis viel mehr Informationen”, sagt Ophelia Deroy, die die widersprüchliche Haltung von Menschen gegenüber künstlicher Intelligenz als eine Form animistischen Glaubens erforscht. Neuartige sprachbasierte KI-Systeme wie ChatGPT lieferten in der Praxis jedoch viel mehr Informationen. “Je reichhaltiger die Interaktion ist, desto einfacher ist es, sie zu vermenschlichen”, sagt Deroy.
„Zusammenfassend lässt sich sagen, dass unsere Ergebnisse die Idee unterstützen, dass KI-Assistenten als etwas mehr als bloße Empfehlungswerkzeuge angesehen werden, aber dennoch weit von menschlichen Standards entfernt bleiben”, sagt Longin.
Die Autoren sind überzeugt, dass die Ergebnisse der neuen Studie weitreichende Auswirkungen auf die Gestaltung und den gesellschaftlichen Diskurs rund um KI-Assistenten haben werden: „Auch bei der Entwicklung und dem Einsatz intelligenter Assistenten sollte deren Einfluss auf soziale und moralische Normen berücksichtigt werden”, schließt Longin.
Wissenschaftliche Ansprechpartner:
Dr. Louis Longin
Cognition, Values and Behaviour (CVBE)
Fakultät für Philosophie, Wissenschaftstheorie und Religionswissenschaften
Philosophy of Mind
Louis.Longin@lrz.uni-muenchen.de
https://www.philosophie.uni-muenchen.de/lehreinheiten/phil_of_mind/personen/loui…
Originalpublikation:
L. Longin, B. Bahrami, O. Deroy: Intelligence brings responsibility – Even smart AI assistants are held responsible. iScience 2023
https://www.cell.com/iscience/fulltext/S2589-0042(23)01571-7
Bilder
Merkmale dieser Pressemitteilung:
Journalisten
Gesellschaft, Philosophie / Ethik, Psychologie
überregional
Forschungsergebnisse
Deutsch