Rückblick auf die Auftaktveranstaltung

Am 22. September 2023 fand die Auftaktveranstaltung des Projekts "DigitalisierungsDiskurse – DiDi" auf dem Conti-Campus (Königsworther Platz 1, 30167 Hannover) statt. Im Folgenden finden Sie ein paar Eindrücke von der Tagung:

In unserer Auftaktveranstaltung hatten wir Gelegenheit zum persönlichen Kennenlernen und erstem Austausch. Schon am 21. September lernten einige der Teilnehmenden beim ScienceSlam „Virtualität als Lebensform“ im innovercity-Projekt der hannoverschen Hochschulen ein innovatives Format der Wissenschaftskommunikation kennen, bei dem sie inspirierende Perspektiven auf die Herausforderungen der Digitalisierung geboten bekamen. Im Fachprogramm am 22. September wurden unter dem Motto „Projekte & Friends“ wurden Arbeitsergebnisse und neue Ideen präsentiert, die in den beteiligten Forschungsprojekten und ihrem Umfeld entstanden sind. Vorträge zum rechtlichen Umgang mit Phänomenen der Digitalisierung – wie automatisierter Entscheidungsfindung und künstlicher Intelligenz –, wurden ergänzt durch Beiträge aus Philosophie, Soziologie und Informatik.

Mit Katja Anclam konnte zudem eine externe Referentin gewonnen werden, die nach der Begrüßung durch Prof. Dr. Margrit Seckelmann in einer Keynote von eigenen Erfahrungen mit dem Projekt „KIDD – KI im Dienste der Diversität“ geben konnte. Der dort entwickelte KIDD-Prozess hilft Organisationen angesichts von Herausforderungen durch algorithmischen Bias, die Algorithmeneinführung im eigenen Betrieb im Sinne der Diversität zu gestalten. Zentral ist dabei die diskursive Beteiligung von Stakeholdern in einem Panel der Vielfalt. Verzerrungen oder Benachteiligungen können in diesem Prozess frühzeitig entdeckt und adressiert werden. Frau Anclam berichtete sowohl über die inhaltliche Arbeit am KIDD-Prozess als auch über das Interesse der Öffentlichkeit und der im Projekt beteiligten Unternehmen und zeigte, wie praxisorientierte Forschungsergebnisse zur menschenzentrierten Digitalisierung in Unternehmen gewonnen und sogleich zur Anwendung gebracht werden konnten.

Im ersten Beitrag aus den Projekten stellte Filip Paspalj (Universität Wien) einige Ergebnisse seiner Arbeit im Projekt Digitize! vor, in dem er sich mit der urheberrechtlichen Privilegierung von Text- und Data-Mining für wissenschaftliche Zwecke in Österreich auseinandersetzte. Ein Erfolg dieser Arbeit war die wissenschaftliche Beratung des Gesetzgebers mittels einer Stellungnahme zur österreichischen Urheberrechtsnovelle zur Umsetzung der RL (EU) 2019/790. Die Teilnehmenden in DiDi diskutierten daraufhin die deutsche und österreichische Rechtslage zum wissenschaftlichen Text- and Data-Mining im Vergleich sowie die durch diese Regelung geschaffenen Möglichkeiten zur sozialwissenschaftlichen Forschung.

Katharina Lippke (Lehrstuhl für Bürgerliches Recht, Arbeits- und Wirtschaftsrecht) und Nelli Schlee (Institut für Rechtsinformatik) aus dem Promotionsprogramm „Verantwortungsvolle Künstliche Intelligenz in der Digitalen Gesellschaft“ gaben einen Einblick in ihre Arbeit zu algorithmischer Entscheidungsfindung bei Einstellungsentscheidungen aus der Perspektive des geltenden Antidiskriminierungsrechts und datenschutzrechtlicher Regelungen zur Transparenz automatisierter Entscheidungen. Als Herausforderung durch die Einführung von künstlicher Intelligenz in diesem Bereich identifizierten sie insbesondere ein Risiko der Diskriminierung in Verbindung mit besonderen Schwierigkeiten für die Bewerber:innen, diese auch zu erkennen. Als mögliche rechtliche Lösungen schlugen sie die Veränderung von Beweislastregeln im AGG und eine neue Risikoverteilung bei mangelnder Nachvollziehbarkeit automatisierter Entscheidungsfindung vor.

Die folgenden Beiträge zeigten die Interdisziplinarität des Projekts. Zunächst stellte Justus Rahn vom Institut für Soziologie der LUH eine Arbeit zu diskursiver Verhandlung von Algorithmeneinführung im Arbeitsmarktservice Österreich (Braunsmann, K., Gall, K., & Rahn, F. J. (2022). Discourse Strategies of Implementing Algorithmic Decision Support Systems: The Case of the Austrian Employment Service. Historical Social Research, 47(3), 171-201) vor. Der Beitrag analysiert mit Mitteln der wissenssoziologischen Diskursanalyse den öffentlichen Diskurs um die Einführung und Verwendung eines Algorithmus zur Prognose von Arbeitsmarktchancen in dieser Behörde. Dabei lässt sich den Autor:innen zufolge zeigen, dass der Diskurs über den Algorithmus mit solchen über Effizienz und soziale Hilfe verschränkt geführt wurde. Zudem trugen Unschärfe und Veränderbarkeit der zur Bezeichnung des Algorithmus im Diskurs verwendeten Begriffe und Bilder sowie eine Konzentration auf die Einbindung des Algorithmus in die Organisation des AMS dazu bei, den Algorithmus selbst gegen Kritik abzuschirmen.

Jannik Zeiser (Institut für Philosophie) und Jan Horstmann (Institut für Rechtsinformatik) beleuchteten, anschließend an ihre Arbeit im Projekt BIAS, unterschiedliche Facetten von Verantwortung bei automatisierter Entscheidungsfindung. Zeiser lenkte mit der Frage „Wer entscheidet?“ den Blick auf den Aspekt der Zuschreibbarkeit von Entscheidungen, den er insbesondere dem Aspekt der Rechenschaft gegenüberstellte. Hierbei gehe es um die Frage, ob in einer Entscheidung ein Werturteil widergespiegelt wird, welches letztlich dem handelnden Menschen zugeordnet werden kann. Bei Entscheidungen, die aus ethischen oder rechtlichen Gründen von einem Menschen verantwortet werden sollten, stelle künstliche Intelligenz die Zuschreibbarkeit vor Herausforderungen, indem sie implizite Werturteile in den Entscheidungsprozess einbringe. Diese seien dem handelnden Menschen nicht immer bewusst. Horstmann knüpfte an diese Arbeit an, indem er eine Einordnung und Kritik der im europäischen Datenschutzrecht verankerten Regelungen zu automatisierten Entscheidungen mittels der von Zeiser aufgezeigten Aspekte von Verantwortung unternahm. Wenngleich dem Gesetzgeber die Sicherung von Verantwortung ein Anliegen gewesen sei, deckten die Regelungen nicht alle ihre Facetten vollständig ab. In der Zusammenschau mit weiteren DSGVO-Vorschriften und der vorgeschlagenen KI-Verordnung bestehe aber Potenzial für eine stärkere Sicherung von Verantwortung.

Im zweiten Block des Tages präsentierte Luca Deck (Universität Bayreuth/Fraunhofer-Institut für Angewandte Informationstechnik) eine in Arbeit befindlichen Übersichtsstudie zur Frage, wie die Beziehung zwischen erklärbarer künstlicher Intelligenz (sog. Explainable AI/XAI), und Fairness in der Forschung beurteilt wird. Dabei zeigte er auf, dass zwar Einigkeit darin bestehe, dass Erklärbarkeit der Fairness im Allgemeinen zuträglich sei. Bei der genauen Konturierung dieser Beziehung zeigten sich jedoch verschiedene Zusammenhänge zwischen XAI und Fairness, die sich grob entlang der Dimensionen formaler Fairnesskriterien und menschlichen (subjektivem) Fairnessempfindens verteilten. Auch der Fairnessbegriff sei bereits nicht eindeutig. So lasse sich etwa ein Schwerpunkt auf prozedurale, oft formale, Fairness oder aber auf faire Ergebnisse legen. Die Generierung von Erklärungen eines KI-Outputs, die unterschiedlichen Hindernissen begegne, könne deshalb Fairness nicht garantieren. Vielmehr könne sie die menschliche Urteilskraft darin unterstützen, die für einen Anwendungsfall angemessenen Fairnesskriterien umzusetzen und zu kontrollieren.

Kristen Scott (KU Leuven) stellte ihr laufendes Teilprojekt innerhalb des Projekts NoBias vor. In Zusammenarbeit mit der britischen BBC nutzt sie dabei Instrumente des Natural Language Processing (NLP) zur qualitativen Analyse von Medieninhalten. Da die Auswahl von angezeigten und empfohlenen Inhalten auf Plattformen der BBC aus unterschiedlichen Gründen größtenteils durch journalistische Kuratierung gesteuert wird, soll erforscht werden, wie sich die Auswirkungen neuer Technologien wie Empfehlungsalgorithmen überwachen lassen. Hier wird als Mittel eine interaktive Visualisierung der Stoßrichtung oder des „Framings“ bestimmter Themen für die Redaktion gewählt, die u.a. auf der Messung der Häufigkeit von Wortpaaren und Drillingen (sog. Bigramme und Trigramme) basiert. Die dabei entwickelten Instrumente könnten helfen, zu verstehen, wie die BBC ihren öffentlichen Auftrag etwa im Hinblick auf unparteiische Berichterstattung und die Abbildung und Vermittlung der Diversität der britischen Regionen und Nationen besser wahrnehmen kann.

Boris Kandov (Universität Wien), tätig im Projekt RAP – Rechtliche Aspekte der Plattformökonomie und Plattformgesellschaft, widmete sich im abschließenden Beitrag regulatorischen Ansätzen für Algorithmen auf Online Plattformen im Digital Services Act (DSA). Der DSA sehe für Algorithmen auf Plattformen, die die Empfehlung von Inhalten übernähmen, Transparenzpflichten vor. Dabei betonte Kandov die Herausforderung, über algorithmische Empfehlungssysteme in der geforderten klaren, einfachen, verständlichen, benutzerfreundlichen und eindeutigen Sprache zu informieren. Zudem gelte sowohl für Empfehlungssysteme als auch für Systeme zur Inhaltemoderation die Pflicht der Bewertung und Minderung systemischer Risiken. Die Durchsetzung des DSA erfolge über ein breites Spektrum von Instrumenten. Dazu gehörten neben der Überwachung durch die Europäische Kommission beispielsweise auch Datenzugangsrechte für den Digital Services Coordinator und die Unterstützung durch ein neu gegründetes Europäisches Zentrum für algorithmische Transparenz.

Einige der in den Vorträgen aufgeworfenen Fragen wurden in der folgenden Abschlussdiskussion mit Blick auf den Fortgang des Forschungsprojekts vertieft. Insbesondere wurde angeregt darüber gesprochen, wie Menschen erkennen könnten, ob sie bei automatisierter Entscheidungsfindung mithilfe künstlicher Intelligenz fair behandelt oder womöglich sogar rechtswidrig diskriminiert werden. Dies erfordere zunächst ein grundlegendes Verständnis dafür, welche Formen automatisierter Entscheidungssysteme bereits eingesetzt würden und wie diese grundsätzlich funktionierten. Dabei wurde darauf Wert gelegt, dass begriffliche Klarheit angesichts von technischer Komplexität und modischen Begriffsschöpfungen in diesem Feld besonders wichtig sei. Auch auf die Bedeutung von Daten für die Algorithmen als Endprodukte wurde hingewiesen. Schließlich müsse gesellschaftlich diskutierbar sein, welche Werte künstliche Intelligenz transportiere und ob die technische Entwicklung wirklich gesellschaftlich erwünschte Fortschritte bringe. Dem Projekt DiDi wird in dieser Hinsicht die Aufgabe zukommen, Begriffe auf Basis des Stands der Wissenschaft zu ordnen und die Öffentlichkeit für die Bedeutung und Risiken von künstlicher Intelligenz zu sensibilisieren.

Programmübersicht

  • Donnerstag, 21. September 2023
    Uhrzeit Programm
    19.00-22.00 Uhr

    Besuch des Science Slams "Virtualität als Lebensform"
    Auditorium "aufhof",
    Osterstr. 13, 30159 Hannover

     

  • Freitag, 22. September 2023
    Uhrzeit Programm
    9.00-9.15 Uhr Ankunft, Kaffee/Tee
    9.15-9.30 Uhr Begrüßung
    Prof. Dr. Margrit Seckelmann, M.A.,
    Leibniz Universität Hannover
    9.30-9.45 Uhr Vorstellung des Projekts DigitalisierungsDiskurse (DiDi)
    Marlene Delventhal & Jan Horstmann,
    Leibniz Universität Hannover
    9.45-10.30 Uhr Wenn KIs gendern… Digitalisierungsdiskurse zwischen Wissenschaft, Zivilgesellschaft und Unternehmen im Forschungsprojekt KIDD - Künstliche Intelligenz im Dienste der Diversität
    Katja Anclam, M.A.,
    Institut für Gutes Leben/female.vision e.V., Berlin
    10.30-10.45 Uhr Erfrischungspause

     

    Projekte & Friends I:

    Uhrzeit Programm
    10.45-11.05 Uhr Die Privilegierung von Text- und Data-Mining für wissenschaftliche Zwecke in Österreich
    Filip Paspalj,
    Universität Wien
    11.05-11.35 Uhr Algorithmische Entscheidungsfindung im Kontext von Einstellungsverfahren und Anti-Diskriminierungsrecht
    Katharina Lippke & Nelli Schlee,
    Leibniz Universität Hannover
    11.35-11.55 Uhr Diskursive Verhandlung von Algorithmeneinführung im Arbeitsmarktservice Österreich
    Justus Rahn & Korbinian Gall,
    Leibniz Universität Hannover
    11.55-12.25 Uhr Wer trifft die Entscheidung? Algorithmen und Facetten von menschlicher Verantwortung im Lichte von Philosophie und Recht
    Jannik Zeiser & Jan Horstmann,
    Leibniz Universität Hannover
    12.25-13.30 Uhr Mittagspause

     

    Projekte & Friends II:

    Uhrzeit Programm
    13.30-14.00 Uhr Overcoming Intuition: A Critical Survey on the Multidimensional Relationship between Explainable AI and Fairness
    Luca Deck,
    Universität Bayreuth
    14.00-14.20 Uhr Using Concurrency for Frame Analysis by Gender and non-UK Region in BBC News
    Kristen Scott,
    KU Leuven
    14.20-14.40 Uhr Die Regelung von Algorithmen auf Online-Plattformen im Digital Services Act
    Boris Kandov,
    Universität Wien
    14.40-14.45 Uhr Erfrischungspause
    14.45-15.45 Uhr Interaktive Themenerarbeitung
    15.45-16.30 Uhr Ergebnispräsentation und Abschlussdiskussion: Quo vadis, DiDi?
    16.30-17.00 Uhr Wrap-Up & Verabschiedung

Kontakt

Wenn Sie Rückfragen zur Veranstaltung haben, nehmen Sie gerne Kontakt mit uns auf!