Teilen:
02.07.2024 14:05
Mehr Misstrauen durch KI? RC Trust erforscht Lügen-Algorithmus
Wie wäre eine Welt, in der sich Lügen nicht mehr lohnten? Künstliche Intelligenz soll sie künftig entlarven. Professor Dr. Nils Köbis entwickelt dafür mit einer europäischen Forschungsgruppe einen Algorithmus und untersucht, wie sich eine automatisierte Lügenerkennung auf unsere Gesellschaft auswirken könnte. Das Fachmagazin iScience berichtet über die Studie.
Die meisten Menschen können Lügen nicht gut erkennen. Dazu kommt: Jemanden fälschlich der Lüge zu bezichtigen, kann unangenehme soziale Konsequenzen haben und will gut überlegt sein. Wir gehen daher in den meisten Alltagssituationen davon aus, dass unser Gegenüber die Wahrheit sagt. Für rechtlich relevante Situationen werden daher mitunter Lügendetektoren eingesetzt – moderne Varianten können natürliche Sprache verarbeiten und sind bei der textbasierten Suche nach gefälschten Bewertungen oder Spam überdurchschnittlich genau.
Auch Professor Dr. Nils Köbis vom Research Center for Trustworthy Data Science and Security der Universitätsallianz Ruhr hat gemeinsam mit Kolleg:innen aus Würzburg, Berlin und Toulouse (Frankreich)* einen Algorithmus entwickelt, der Lügen deutlich besser erkennt, als Menschen es können. Die Wissenschaftler:innen untersuchten mit 2.040 Proband:innen aus den USA, wie diese mit den KI-Vorhersagen umgehen. Bezichtigten sie ihr Gegenüber der Lüge, wenn die KI entsprechende Hinweise gab? „Die meisten von ihnen zögerten zunächst, den Algorithmus zu nutzen. Wer die KI-Ratschläge befürwortete, folgte der Empfehlung überwiegend – auch wenn sie besagten, dass der gegenüber lügt“, erklärt Köbis.
Was bedeutet das für unser Zusammenleben, wenn die KI zwar zuverlässiger als Menschen Lügen entlarven kann, aber gelegentlich auch danebenliegt? „Eine breite Verfügbarkeit von Lügen-Erkennungs-Algorithmen könnte zu mehr Misstrauen in der Gesellschaft führen. Denn wer diese Technologie generell befürwortet, beschuldigt auch eher“, erläutert Psychologe Köbis und ergänzt: „Sie könnte aber auch die Aufrichtigkeit in unserer Kommunikation und in Verhandlungen fördern.“ Wichtig sei es daher, den KI-Einsatz gesetzlich zu regeln. „Die Politik sollte Maßnahmen zum Schutz der menschlichen Privatsphäre beschließen und den verantwortungsvollen Einsatz von KI fördern, besonders im Gesundheitswesen und in der Bildung“, so Köbis.
* Universität Würzburg, Max Planck Institute (MPI) for Human Development, Toulouse School of Economics, Institute for Advanced Study Toulouse, Frankreich
Weitere Informationen:
Schenk et al., “Lie detection algorithms disrupt the social dynamics of accusation behavior”, in: iScience (2024), https://doi.org/10.1016/j.isci.2024.110201
Prof. Dr. Nils Köbis, Research Center for Trustworthy Data Science and Security, sekretariat.koebis@uni-due.de
Redaktion: Dr. Alexandra Nießen, Tel. 0203/37 91487, alexandra.niessen@uni-due.de
Wissenschaftliche Ansprechpartner:
Research Center for Trustworthy Data Science and Security: Prof. Dr. Nils Köbis, sekretariat.koebis@uni-due.de
Originalpublikation:
Schenk et al., “Lie detection algorithms disrupt the social dynamics of accusation behavior”, in: iScience (2024), https://doi.org/10.1016/j.isci.2024.110201
Bilder
Bild mit Dall-E generiert
Merkmale dieser Pressemitteilung:
Journalisten, Lehrer/Schüler, Studierende, Wissenschaftler, jedermann
Gesellschaft, Informationstechnik, Kulturwissenschaften, Psychologie
überregional
Buntes aus der Wissenschaft, Forschungsergebnisse
Deutsch