FHWS WiSo-Gebäude Münzstraße 12 in Würzburg

KI & Ethik: Anwendung, Grenzen, Risiken und Verantwortung - Prüfungsnummer: 9958439

Das AWPF behandelt Künstliche Intelligenz (LLMs) und ethische Kernfragen anhand realitätsnaher Fallbeispiele, Dilemmata und strukturierter Diskussionen. Zu Beginn erhalten die Studierenden eine praxisnahe Einführung in die Arbeitsweise moderner KI/LLMs (Was können aktuelle Modelle leisten? Warum entstehen Fehler?) sowie einen Überblick über gängige Tools am Markt (z. B. ChatGPT, Copilot, Gemini, Perplexity) für die gemeinsame Arbeit im Kurs. Praktische Tipps zum Prompting (Iteration, Rollenzuweisung, Agents & CustomGPTs) runden die Einführung ab.

Im Zentrum steht anschließend die ethische Bewertung (u. a. utilitaristische, deontologische, tugendethische Perspektiven) und deren Anwendung auf Konfliktlagen: Berufsverdrängung vs. Qualitätsgewinn, „Kipppunkt“-Frage (ab wann ist es ethisch problematisch, wenn Menschen die Letztentscheidung behalten, obwohl KI nachweislich weniger Fehler macht – z. B. Medizin, Mobilität, Justiz), anhand von Kriterien wie: Fairness, Transparenz, Datenschutz, Verantwortung, Bias, Haftung, Produktivität und institutionellen Leitlinien (inkl. KI-Leitlinie Hochschullehre).

Prüfungsleistung: Einzelpräsentation zu einem selbst gewählten KI-Ethik-Fall mit praktischer Relevanz inkl. Nutzenabwägung, Pflichten- und Werteabwägung, Handlungsempfehlung und Q&A.

Lehrform: stark interaktiv (Debattenformate, Gruppenarbeit, Rollenübungen, Fallwerkstatt, Peer-Feedback); Grundkonzept als Intensivkurs (Training: 5 Tage) optional als Blockveranstaltung.

 

1. Lernziele

Nach dem Kurs können Studierende:

  1. KI/LLMs auf verständlichem Niveau erklären und selbst nutzen (Grundprinzip, typische Fehlerquellen, Bias, „Halluzinationen“) und ToolUnterschiede grob einordnen
  2. ethische Bewertungsrahmen sicher anwenden (mind. 3 Perspektiven) und Zielkonflikte sauber herausarbeiten. Eigene Meinung zu konkreter KINutzung bilden
  3. Stakeholder- und Risikoanalysen durchführen (Betroffene, Schäden/Nutzen, Wahrscheinlichkeiten, Reversibilität, Verantwortlichkeiten)
  4. in Diskussionen argumentativ (und respektvoll) Positionen vertreten, Ergebnisse mit Anwendungsbeispielen belegen/bewerten, widersprechen, Konsens herstellen
  5. Handlungsempfehlungen/Governance-Maßnahmen formulieren (Leitlinien, Human-in-the-Loop, Transparenz, Monitoring) – Bezug zu etwaigen THWS-Vorgaben. (s.u.)
  6. Ergebnisse interaktiv präsentieren und (kritische) Rückfragen beantworten (Prüfung)

 

2. Didaktisches Grunddesign: Interaktion (menschlich sowie künstlich intelligent)

Prinzip 70/30: max. 30 % Input, mind. 70 % Anwendung (Diskussion, Übungen, Fallarbeit, Arbeit mit KI-Modellen, um Grenzen und Möglichkeiten live gemeinsam zu testen).

Methodenmix: Kurzimpulse, Live-Demo, Debatte „Pro/Contra“, Rollen/Stakeholder-Hearing, Dilemma-Matrix, Fallwerkstatt, Peer-Review, Reflexionsjournal („Was änderte meine Meinung – warum?“).

 

3. Fallbibliothek (Auswahl von Beispielen für Diskussionen, Dilemmata, Prüfung)

  1. Tumordiagnostik: KI erkennt mehr – darf/muss sie entscheiden? (Fehler, Haftung, medizinische Aufklärung, Kontrolle)
  2. Autonomes Fahren: Unfallszenario, Verantwortungskette, „sicherer als Mensch“ als ethisches Argument
  3. Justiz/Verwaltung: Entscheidungshilfen vs. Letztentscheidung – Transparenz, Anwenderfehler, Vereinheitlichung, Vorhersage, Vermeidung von Sympathieentscheidungen
  4. Soziale Arbeit: KI-gestützte Risikoprognosen (Kindeswohl/Intervention) – Stigma vs. Schutz – Grundlagen des AI-Acts – Frühdiagnostik Demenz durch Angehörige, LL 2023
  5. Hiring/HR: Screening-KI – Fairness, Erklärbarkeit, „Proxy“-Diskriminierung, Raster
  6. Kommunikationsdesign/Medien: Deepfakes, KI-Content, Urheberschaft, Manipula-tion, Persönlichkeitsrecht und massenhafter KI-Einsatz in SocialMedia
  7. Hochschule: KI bei Hausarbeiten/Präsentationen – Lernziel vs. Integrität, Einsatz von Tools für automatisierte Erstellung von Präsentationen (THWSLeitlinie als Rahmen?)
  8. Unternehmen: „Copilot überall“ – Produktivität vs. Datenschutz / Arbeitnehmer-Leistungsanalysen und Betriebsrat / Echte Kollaboration 5.0 vs. Effizienzsteigerung 4.0
  9. Gesundheitsapps: Nudging, Abhängigkeit, mentale Gesundheit, Verantwortung
  10. Behörden-Chatbots: Zugänglichkeit vs. Fehlberatung; Verbindlichkeit, „wer haftet?“

 

4. Prüfungsleistung: Präsentation

  • Einzelpräsentation am 4. Tag (Auswertung/Feedback am 5. Tag zum Abschluss) (Gute Erfahrungen mit dem Aufbau seit 20 Jahren beim AWPF „Präsentationspraxis“)
  • 10–12 min. Präsentation + 8 min. Diskussion und Fragen (Q&A)
  • Abgabe: 1-seitiges Handout (Fall, Stakeholder, Normen, Risiken, eigene Empfehlung)

Aufgabenstellung:

Wählen Sie einen realen oder realistisch konstruierten KI-Einsatz. Analysieren Sie:

  1. Was tut die KI im konkreten Fall? (Vorführung eines Chats, Workflows, Projekts o.ä.)
  2. Stakeholder & Risiko- und Chancenprofil (Nutzen- und Problembeschreibung)
  3. Menschliche Alternative (Was wäre ohne KI im ansonsten selben Fall passiert?)
  4. Ethische Abwägung mit mehreren Theorien, Prinzipien oder Blickwinkeln
  5. Konkrete Handlungsempfehlung (Auflösung des Dilemmas) (Begründung)
  6. Diskussion moderieren, Gruppenmeinung (Forschungsergebnis) zusammenfassen

Bewertungskriterien:

  • Technisches Grundverständnis (15%)
  • Problemdefinition & Kontext (20%)
  • Ethische Argumentation & Abwägung (30%)
  • Umsetzbare Empfehlung/Governance (20%)
  • Präsentationsklarheit & Q&A (15%)

 

Materialien & Vorbereitung im Kurs zu Beginn:

  • Persönliche Vorstellung der Studierenden mit Bitte um ein Beispiel aus eigenem Um-feld: „Wo begegnet mir KI – und was daran ist angenehm bzw. unangenehm?“, Erwartungsabfrage bzgl. des Kurses, Vorwissen, Erfahrungslevel im Umgang mit KI
  • Persönliche Vorstellung des Dozenten mit Präsentation einiger CustomGPTs, die in der täglichen Arbeit zum Einsatz kommen, z.B. JUS-AI – AI that understands the law, KI-Assistent für Mitarbeiterführung in Unternehmen, Bewerbungsassistent u.ä.
  • Dilemma-Matrix als Arbeitsblatt zur strukturierten Prüfung eines KI-Einsatzes
  • Ergänzende Frage: Gibt es aktuell eine offizielle THWS-KI-Richtlinie? War auf der Website nicht auffindbar. Gefunden: Allgemeine Ermutigung der THWS zur Nutzung von ChatGPT. Ansonsten Leitlinie für bayerische Hochschulen (19052025/ANHANG)

Dozent/in: LB Ralph Wüst
Stand: 15.01.2026