Leitlinien für den verantwortungsvollen Umgang mit Algorithmen

StrommastenDie Initiative D21 hat neun Leitlinien zum Monitoring von algorithmischen Systemen veröffentlicht. Diese wurden in Berlin vorgestellt und ihre Praxistauglichkeit mit Vertreterinnen der Enquete-Kommission „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale“, der High-Level Expert Group on Artificial Intelligence (AI HLEG) sowie der Datenethikkommission diskutiert.

„Viele Anwendungen und Dienste des Alltags und der beruflichen Praxis beruhen heute auf algorithmischen Systemen. Sie helfen, indem sie z. B. aus großen Datenmengen Erkenntnisse ziehen und Informationen in Millisekunden verarbeiten oder Prozesse automatisieren“, erklärt Hannes Schwaderer, Präsident der Initiative D21, und meint weiter, um sie verantwortungsvoll einzusetzen und faire Ergebnisse zu erzielen, seien im Vorfeld bestimmte Überlegungen anzustellen. Die Leitlinien dienen als Orientierung, wichtige Fragen nach der Verantwortlichkeit und Kontrolle, der Nichtdiskriminierung, der Transparenz und Nachvollziehbarkeit sowie der Nachhaltigkeit zu berücksichtigen.

Interdisziplinäre und multiperspektivische Betrachtung relevanter Fragestellungen

Dr. Irina Eckardt, Vorständin Initiative D21 und KPMG, hat die Arbeit zum Algorithmen-Monitoring geleitet. Sie stellt fest: „Beim Planen, Prüfen und Kontrollieren geht es längst nicht mehr nur um die Algorithmen, sondern auch um Daten und um Personen, die entscheiden, erstellen, prüfen und nutzen. All das zusammengenommen bildet ein komplexes System – ein algorithmisches System“. Sie schlussfolgert: „Diese Komplexität stellt uns vor neue Herausforderungen, bei denen wir durch die aus der Unterarbeitsgruppe (UAG) Algorithmen-Monitoring entstandenen Denkimpulse und Leitlinien besseres Verständnis bieten“.

Expertinnen und Experten aus Wissenschaft, Wirtschaft, Verwaltung und Zivilgesellschaft haben knapp zwei Jahre in der UAG Algorithmen-Monitoring zusammengearbeitet und relevante Fragestellungen diskutiert. Beachtet wurden dabei vor allem ethisch-rechtliche, sozioökonomische sowie technologische Perspektiven.

Die Ergebnisse wurden in drei Veröffentlichungen zu den Themen „Bias in algorithmischen Systemen“, „Transparenz und Nachvollziehbarkeit algorithmischer Systeme“ und „Verantwortung für algorithmische Systeme“ festgehalten und über die Projektlaufzeit der UAG kontinuierlich weiterentwickelt. Sie bilden die Basis für die neun Leitlinien:

  1. Verantwortlichkeiten verteilen und verorten: Verantwortlichkeiten müssen zwischen den beteiligten Akteurinnen und Akteuren aufgeteilt werden, so dass Verantwortliche vor allem für Nutzende und Betroffene eindeutig identifiziert werden können.
  2. Bias erkennen und bewerten: Durch die deutlichere Konfrontation mit bisher verborgenen subjektiven Wertungen müssen diese sogenannten Bias überprüft und der Umgang mit ihnen gestaltet werden.
  3. Transparenz ermöglichen: Transparenz ist eine notwendige Grundlage für Prüfbarkeit, ihre Umsetzung in algorithmischen Systemen muss spezifisch an die Nutzungsgruppen angepasst werden.
  4. Nachvollziehbarkeit gewährleisten: Algorithmische Systeme müssen von Anfang an so gestaltet werden, dass Prozesse im Nachhinein durch kontextbezogene Informationen über das System für unterschiedliche Nutzungsgruppen nachvollziehbar sind.
  5. Bestehende Regulierungen anwenden: Das bestehende Recht muss angewendet, für eine digitale Anwendung überprüft und gegebenenfalls angepasst werden.
  6. Grundlegende Regeln definieren: Mit Mindeststandards sind algorithmische Systeme vergleichbarer und deren Einhaltung kann zu mehr Vertrauen und Akzeptanz führen.
  7. Wissen interdisziplinär austauschen: Kontinuierlicher, disziplin- und organisationsübergreifender Austausch verbessert die Qualität algorithmischer Systeme.
  8. Positiven Nutzen für Gesellschaft erzeugen: Nur eine am Gemeinwohl orientierte Entwicklung und ein nachhaltiger Einsatz algorithmischer Systeme können ethischen Anforderungen langfristig gerecht werden.
  9. Leitlinien kontinuierlich überprüfen: Die regelmäßige Beurteilung von Anpassungen rechtlicher Regelungen und deren Auswirkungen auf die Gestaltung algorithmischer Systeme müssen Bestandteil der Überprüfung sein, die Leitlinien kontinuierlich verbessert werden.

 Zum Hintergrund

Algorithmen bergen ein immenses Potenzial, insbesondere kommt ihnen eine wachsende Bedeutung bei technologischen Entwicklungen zu. Gleichzeitig entstehen eine zunehmende Komplexität und Intransparenz von algorithmischen Systemen. Dies bringt steigende Herausforderungen und verschiedene Fragestellungen mit sich. Vor diesem Hintergrund gründete die Initiative D21 Anfang 2018 eine Unterarbeitsgruppe (UAG) der AG Ethik zur Bearbeitung von Fragestellungen rund um das Thema „Algorithmen-Monitoring“.

Die UAG Algorithmen-Monitoring diskutierte relevante Fragestellungen mit interdisziplinären Expertinnen und Experten aus drei Perspektiven: technologisch, sozioökonomisch und ethisch-rechtlich. Ethisch-rechtlich wurde gefragt, welche rechtlichen Grundlagen die Regulierung algorithmischer Systeme sichert. Sozioökonomisch wurden den sozialen und ökonomischen Chancen und Herausforderungen durch die Anwendung von algorithmischen Systemen nachgegangen und Maßnahmen zur Reduktion von Risiken erarbeitet. Die technologische Perspektive bezieht sich auf die praktische Umsetzbarkeit eines Algorithmen-Monitorings und setzt sich mit deren Bedingungen, Problemen und Möglichkeiten auseinander.

Aus den Diskussionen wurden Thesen definiert und für die drei Schwerpunktthemen „Bias in algorithmischen Systemen“, „Transparenz und Nachvollziehbarkeit“ sowie „Verantwortung für algorithmische Systeme“ in Denkimpulsen veröffentlicht. Als Zusammenfassung wurden neun Leitlinien zum Algorithmen-Monitoring entwickelt. Sie beinhalten grundlegende Fragen für weitere Diskussionen und dienen als Handlungsaufforderung.

Hinterlasse eine Antwort

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

Du kannst folgende HTML-Tags benutzen: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>