eine soziale Praktik vor, bei der beide Seiten den Prozess des Ver- stehens gemeinsam konstruieren. normalerweise nichts über die Technologie des maschinellen Ler- nens erfahren, sondern fragt nach der Datenverarbeitung in Bezug auf die eigenen Qualifikationen“, erklärt Rohlfing. Erklärbarkeitsforschung „Künstliche Systeme sind komplex geworden. Das ist ein ernsthaftes Problem – insbesondere dann, wenn Menschen für computerbasier- te Entscheidungen verantwortlich gemacht werden“, betont Prof. Dr. Philipp Cimiano, Informatiker der Universität Bielefeld. Gerade bei Vorhersagen im Bereich der Medizin oder der Rechtsprechung sei es notwendig, die maschinengesteuerte Entscheidungsfindung nach- zuvollziehen, so Cimiano weiter. Zwar gebe es bereits Ansätze, die eine Erklärbarkeit entsprechender Systeme zum Gegenstand hätten, ausreichend sei das aber noch lange nicht. Auch Prof. Dr. Kathari- na Rohlfing von der Universität Paderborn bestätigt den dringenden Handlungsbedarf: „Bürger haben ein Recht darauf, dass algorithmi- sche Entscheidungen transparent gemacht werden. Das Anliegen ist nicht ohne Grund Gegenstand der General Data Protection-Verord- nung der Europäischen Union.“ Das Ziel, Algorithmen zugänglich zu machen, ist Kern der sogenannten „eXplainable Artificial Intelli- gence (XAI)“: „Bei der Erklärbarkeitsforschung stehen Transparenz und Interpretierbarkeit aktuell als gewünschte Ergebnisse im Mittel- punkt“, so Rohlfing über den Stand der Forschung. Entscheidungsfindung nachvollziehen Die an der Veröffentlichung beteiligten Wissenschaftler*innen ge- hen einen Schritt weiter und untersuchen computerbasierte Er- klärungen aus unterschiedlichen Blickwinkeln. Dabei sehen sie es als gesetzt an, dass Erklärungen nur dann für die Anwender*innen nachvollziehbar sind, wenn sie nicht nur für sie, sondern auch mit ihnen entstehen: „Wir wissen aus vielen Alltagssituationen, dass eine gute Erklärung für sich nichts bringt, wenn die Erfahrungen der anderen Seite unberücksichtigt bleiben. Wer sich wundert, warum seine Bewerbung durch den Algorithmus aussortiert wurde, möchte 45 „Bürger haben ein Recht darauf, dass algorithmische Entscheidungen transparent gemacht werden.“ Katharina Rohlfing „Wenn Menschen miteinander interagieren, sorgt der Austausch zwi- schen den Beteiligten dafür, dass eine Erklärung an das Verständnis des Gegenübers angepasst wird. Der Gesprächspartner stellt vertie- fende Fragen oder kann Unverständnis äußern, das anschließend auf- gelöst wird. Im Fall von Künstlicher Intelligenz ist das aufgrund man- gelnder Interaktionsfähigkeit mit Einschränkungen verbunden“, so Rohlfing weiter. Um das zu ändern, arbeiten Wissenschaftler*innen aus den Bereichen Linguistik, Psychologie, Medienforschung, Sozio- logie, Ökonomie und Informatik in einem interdisziplinären Team eng zusammen. Sie untersuchen Computermodelle und komplexe KI-Sys- teme sowie Rollen des kommunikativen Handelns. Erklären als soziale Praktik Die Paderborner und Bielefelder Wissenschaftler*innen haben einen konzeptionellen Rahmen für das Design von erklärbaren KI-Systemen