Antrag 165/II/2018 Algorithmen transparent und diskriminierungsfrei gestalten – keine Verantwortungslücke zulassen

Status:
Annahme

In unserer zunehmend vernetzten Gesellschaft ist die digitale Selbstbestimmung der Bürgerinnen und Bürger von besonderer Bedeutung, denn sie bildet die Voraussetzung für verantwortungsvolles Handeln mit neuen Technologien.

Diese Selbstbestimmung wird jedoch mehr und mehr eingeschränkt – und oft unbemerkt eingeschränkt – durch automatisierte Entscheidungen, in deren Entstehen wir weder Einblick haben, noch sie beeinflussen können. Algorithmen bestimmen, welche Ergebnisse einer Internetsuche jemand angezeigt bekommt, welches Risiko man für eine Versicherung darstellt, oder ob ein Mensch womöglich gar zum Betrug der Sozialsysteme neigt.

Algorithmen bestimmen über jede und jeden von uns, aber nur ganz wenige Leute bestimmen, was Algorithmen tun und was nicht. Ethik kennt ein Algorithmus nicht, und wenn nicht zufällig einer dieser Wenigen moralische Bedenken hatte, ändert sich daran auch nichts.

Das aber müssen wir ändern!

 

Deshalb fordern wir:

  1. Transparenz für die NutzerInnen über die Empfehlungsprozesse von Suchmaschinen, sozialen Netzwerken und Plattformen als wichtige Maßnahme festzuschreiben,
  2. Suchfunktionen müssen als Grundeinstellung eine Ergebnislistung liefern, die keine nutzerindividuellen Empfehlungen enthalten. NutzerInnen sollen aber die Möglichkeit erhalten, zu einer um Empfehlungen angereicherten Darstellung zu wechseln (Opt-in statt Opt-out) und auch wieder zurück.
  3. Wir fordern regelmäßige Revisionen gesellschaftlich relevanter Algorithmen auf ihre Rechtmäßigkeit durch die zuständigen Stellen für Datenschutz und Informationsfreiheit festzuschreiben sowie die Etablierung unabhängiger Audits durch unabhängige Stellen und Qualitätssicherungssysteme für den Algorithmuseinsatz und
  4. dass unabhängige Initiativen der Zivilgesellschaft zur optimierten gesellschaftlichen Kontrolle effektiver als bisher unterstützt werden.

 

Begründung:
Die bisher eingesetzten Technologien algorithmischer Entscheidungsfindung können sehr hilfreich sein, sie können aber auch gegen den Willen der Betroffenen eingesetzt werden, diskriminieren, manipulieren und großen individuellen und gesellschaftlichen Schaden anrichten. Auswüchse wie Risikoscores für Sozialbetrug, Ermittlung der Studienpatienten durch Pharmafirmen oder Beurteilung als schlechtes Risiko bei Versicherungsgesellschaften ohne Wissen der Betroffenen sind nur wenige Beispiele eines schädlichen Einsatzes.   Nach Einschätzung vieler Fachvertreter aus dem Feld der Künstlichen Intelligenz existiert bisher kein allgemein anerkanntes, allgemein angewandtes System zur Regulierung des Einsatzes von Algorithmen in ethisch oder juristisch sensiblen Bereichen. Es bleibt dem Zufall oder dem Whistleblowing interner Hinweisgebenden überlassen, ob der Einsatz ausgrenzender Algorithmen ans Tageslicht kommt oder nicht. Es darf in gesellschaftlich wichtigen Bereichen keine „Blackboxes“ geben, von denen Menschen über ihre Daten diskriminiert werden.   Der Einsatz von Algorithmen hat rechtliche und ethische Implikationen, die mehr denn je eine breite gesellschaftliche Diskussion erfordern. Interessensunabhängige Initiativen der Zivilgesellschaft sensibilisieren für diese Thematik und unterstützen zunehmend die Antidiskriminierungsstellen des Landes Berlin. Sie müssen viel stärker als bisher in den Digitalisierungsprozess der Verwaltung eingebunden werden und angemessen unterstützt werden.   Der zunehmende Einsatz von Algorithmen darf nicht in eine Verantwortungslücke münden. Dies erfordert eine hohe Verantwortungsbereitschaft für die, die sie anwenden. Es erfordert aber zugleich eine konsequente staatliche wie zivilgesellschaftliche Kontrolle. Entlassen wir die Beteiligten nicht aus ihrer Verantwortung!
Empfehlung der Antragskommission:
Annahme (Konsens)