Hasso-Plattner-Institut25 Jahre HPI
Hasso-Plattner-Institut25 Jahre HPI
Login
 

Erklärbare Künstliche Intelligenz: Methoden, Perspektiven, Risiken (Sommersemester 2024)

Lecturer: Prof. Dr. Jürgen Döllner (Computergrafische Systeme) , Tim Cech (Computergrafische Systeme) , Dr. Rico Richter (Computergrafische Systeme) , Florence Böttger (Computergrafische Systeme) , Justus Hildebrandt (Computergrafische Systeme) , Ole Wegen (Computergrafische Systeme)

General Information

  • Weekly Hours: 4
  • Credits: 6
  • Graded: yes
  • Enrolment Deadline: 01.04.2024-30.04.2024
  • Teaching Form: Seminar
  • Enrolment Type: Compulsory Elective Module
  • Course Language: German
  • Maximum number of participants: 15

Programs, Module Groups & Modules

IT-Systems Engineering BA
  • HCGT: Human Computer Interaction & Computer Graphics Technology
    • HPI-HCGT-G Grundlagen
  • HCGT: Human Computer Interaction & Computer Graphics Technology
    • HPI-HCGT-V Vertiefung
  • OSIS: Operating Systems & Information Systems Technology
    • HPI-OSIS-G Grundlagen
  • OSIS: Operating Systems & Information Systems Technology
    • HPI-OSIS-V Vertiefung

Description

Das Seminar befasst sich mit einführenden Themen im Bereich Explainable AI (XAI). Künstliche Intelligenz (KI) als "Black Box" führt u.a. zu entscheidenden Akzeptanz- und Nachweisproblemen in der Praxis, bspw. beim Einsatz im medizinischen Bereich, bei Personalentscheidungen oder bei der Entscheidung über Bewährung. Ansätze, die es ermöglichen, Ergebnisse von KI nachzuvollziehen, sind daher wesentlich für die langfristige effektive Nutzung von KI.

Im Seminar sollen grundlegende Texte für den Themenbereich XAI mit den Teilnehmern gelesen werden. Hierzu wird in jeder Sitzung der Fokus auf einem wissenschaftlichen Text liegen, welcher in den Themenbereich der XAI eingeordnet wird. Es soll dabei insbesondere wissenschaftliche Methoden eingeübt werden, also wie ein wissenschaftlicher Text gelesen werden kann, wie dieser in der eigenen Recherche einen Stellenwert bekommt und wie mit Referenzen und Kritik umgegangen werden kann. Die Studierenden sollen dabei eine möglichst vielfältige Sicht auf den Themenbereich XAI gewinnen und lernen Konfliktpotential zwischen verschiedenen Texten zu identifizieren und einzuschätzen.

Das Seminar behandelt vier aufeinander aufbauende Themenblöcke. Zunächst wird vom Teaching-Team das Thema motiviert sowie eine allgemeine Einführung in Recherche- und Forschungsmethoden, sowie eine Taxonomie diskutiert (Sitzung 1-3). Danach wird eine technikorientierte Einführung in die XAI gegeben  (Sitzung 4-7). Folgend wird versucht die vorgestellten Techniken zu analysieren und fokussierte Kritik aus der Forschungsliteratur hervorzuheben (Sitzung 8-10), ehe das Seminar mit Überlegungen zur Forschungsethik und Methodenkritik beendet wird (Sitzung 11-14). Die 15. Woche wird für eine Einführung zur Hausarbeit, einer Zusammenfassung des Seminars sowie für die Einladung zu frühem Feedback genutzt.

Requirements

Es bestehen keine formalen Voraussetzungen. Es wird jedoch ein Interesse am wissenschaftlichen sowie interdisziplinären Arbeiten erwartet. Es werden insbesondere englischsprachige wissenschaftliche Texte gelesen. Ein Interesse am kritischen aber auch technischen Nachdenken über KI-Systeme ist von Vorteil.

Literature

Es wird zu jeder Sitzung ein Text zu lesen sein, um sich an der Seminardiskussion zu beteiligen. Die Texte werden über das Moodle bereitgestellt.

Exemplarisch werden folgende Texte gelesen:

 

Speith, T. (2022). A review of taxonomies of explainable artificial intelligence (XAI) methods. In Proceedings of the 2022 ACM conference on fairness, accountability, and transparency (pp. 2239-2250). doi: 10.1145/3531146.3534639

Rudin, C. (2019). Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead. Nature machine intelligence, 1(5), 206-215. doi: 10.1007/s11948-017-9975-2. doi: 10.1038/s42256-019-0048-x

Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623). doi: 10.1145/3442188.3445922

Learning

Die ersten drei sowie die letzte Sitzungen werden durch das Teaching-Team gehalten und geben eine methodische Einführung in das Thema und das wissenschaftliche Arbeiten. Die folgenden Termine werden mit einem Studierendenvortrag über einen wissenschaftlichen Text eröffnet, anschließend werden Fragen aus dem Auditorium vom Studierenden beantwortet. Danach wird die Diskussion geöffnet und der Text wird in einem Seminargespräch bearbeitet.

Examination

Die Endnote setzt sich aus folgenden Teilleistungen zusammen:

  • Ausarbeitung und Halten eines praxisorientierten Vortrages zu einem wissenschaftlichen Text. Die Praxisorientierung soll durch die Form eines wissenschaftlichen "Tutorials" nachgewiesen werden, wobei die Studierenden in Absprache mit dem Teaching Team in der Gestaltung des "Tutorials" sehr frei sind. (50%)
  • Anleitung der Seminardiskussion zum eigenen Vortrag (Bestanden/Nicht bestanden)
  • Hausarbeit (12-15 Seiten, 50%)

Die Hausarbeit ist bis zum Ende des Semesters abzugeben. Die Hausarbeit ist eine eigenständige, selbstverfasste Arbeit. 

Dates

Die regelmäßige Sitzung findet immer am Montag 13:30 Uhr in G-3.E.15/16 statt. Nach Ankündigung oder Absprache mit den Teilnehmenden kann zusätzlich ein zweiter wöchentlicher Termin am Donnerstag 09:15 Uhr in G-3.E.15/16 genutzt werden. Die Seminarorganisation findet im Moodle statt. Der erste Termin findet am 08. April statt. Die Themen sind bis zum 21. April über Moodle zu wählen.

Zurück