dbb magazin 6/2019 - page 4

interview
Christiane Woopen
,
Vorsitzende des Europäischen Ethikrates
Klug entwickelte algorithmische Systeme
werden das Leben vereinfachen
dbb magazin
Gibt es bereits Anwendungs­
beispiele von Künstlicher Intel­
ligenz im deutschen öffent­
lichen Dienst?
Christiane Woopen
Der öffentliche Dienst besteht
aus sehr unterschiedlichen Be­
reichen, in denen die Digita­
lisierung und der Einsatz von
maschinellem Lernen und algo­
rithmischen Systemen unter­
schiedlich weit fortgeschritten
sind. In der öffentlichen Ver­
waltung beispielsweise gehört
Deutschland im europaweiten
Vergleich nicht gerade zu den
Vorreitern. Im Digital Economy
und Society Index 2018 (Index
für die digitale Wirtschaft und
Gesellschaft) der Europäischen
Kommission belegt Deutsch­
land insgesamt Platz 14, be­
zogen auf digitale öffentliche
Dienste sogar nur auf Platz 22.
Immerhin ist mittlerweile der
Prototyp des Bürgerportals
online. Zudem wächst gemäß
dem Smart-City-Atlas von Bit­
kom und Fraunhofer IESE der
Anteil der Kommunen, die ei-
ne digitale Agenda erarbeiten
und sich zur Smart City ent
­
wickeln wollen. Ein konkretes
Anwendungsbeispiel in Bun­
desbehörden ist die Spracher­
kennung für arabische Haupt­
dialekte des Bundesamts für
Migration und Flüchtlinge.
In welchen Bereichen sehen
Sie die größten Potenziale von
KI im öffentlichen Dienst?
Große Potenziale sehe ich
beispielsweise für die Schnel­
ligkeit und die Servicequali-
tät bei der Erledigung von
Routinediensten in der öffent­
lichen Verwaltung und den
Sozialversicherungen, für die
Entlastung – nicht Entlassung!
– von Personal etwa in Ämtern
und Gerichten, für die Erhe­
bung und Auswertung von
Daten zur Gestaltung des öf­
fentlichen Raums insbesonde­
re im Bereich Mobilität und
Energie, für die Bürgerbetei­
ligung bei kommunalen Stra­
tegien und für die Betrugser­
kennung. Konkret kann zum
Beispiel das Bundesamt für
Justiz genannt werden, das im
Rahmen des neuen Verfahrens
der Musterfeststellungsklage
die Aufgabe hat, Fälle massen­
hafter Verletzungen des Ver­
braucherrechts als Dienstleis­
tung für Gerichte zu bündeln.
Künstliche Intelligenz basiert
auf der Auswertung großer
Datenmengen. Wie kann man
sicherstellen, dass die gesam­
melten Daten nicht missbraucht
werden, den Bürger und seine
Verhaltensweisen unrecht-
mäßig zu analysieren?
Zum einen haben wir mit der
europäischen Datenschutz-
Grundverordnung bereits eine
starke Regulierung zum Schutz
personenbezogener Daten und
zur Vermeidung von Diskrimi­
nierungen, durch die Men­
schen aufgrund automatisier­
ter Verarbeitung ihrer Daten
ungerechterweise benachtei­
ligt werden können. Darüber
hinaus braucht es aber zusätz­
liche Mechanismen, um die
Technik immer in den Dienst
des Menschen zu stellen und
die Einhaltung wesentlicher
ethischer und rechtlicher
Prinzipien zu garantieren.
Je höher das Gefährdungspo­
tenzial eines algorithmischen
Systems im Hinblick auf die
Verletzung von Rechten und
Freiheiten des Bürgers ist, bis
hin zu Verletzungen seiner
persönlichen Freiheit und In­
tegrität, umso strikter muss
die staatliche Regulierung
und Aufsicht sein. Das kann
auch bedeuten, bestimmte
Anwendungen vollständig
zu verbieten. Dabei kommt
es nicht vorrangig darauf an,
ob das algorithmische System
als sogenannte Künstliche In­
telligenz gilt oder aber kein
selbstlernendes System ist. Im
Mittelpunkt steht vielmehr das
Risiko, das mit der Anwendung
verbunden ist. Die Datenethik­
kommission der Bundesregie­
rung wird unter anderem hier­
zu im Oktober Empfehlungen
abgeben.
Ein Wesenszug von Künstlicher
Intelligenz ist ja, dass die Rech­
ner zunächst von Menschen
angelernte Schlüsse aus der
Analyse der Daten ziehen – sie
aber in einem zweiten Schritt
diese Schlüsse konkretisieren
und auch abändern. Ist es für
einen Menschen überhaupt
möglich, die Analysen von
Künstlicher Intelligenz auf
lange Sicht stets nachzuvoll­
ziehen und gegebenenfalls
zu korrigieren? Und wie kann
das sichergestellt werden?
Derzeit gelten Systeme ma­
schinellen Lernens als Black­
box-Systeme, bei denen jeden­
falls nicht ohne riesengroßen
Aufwand nachvollzogen wer­
den kann, wie sie zu ihren
Schlussfolgerungen kom-
men. Da dies natürlich unbe­
friedigend ist, wird an der Ent­
wicklung von sogenanntem
erklärbaremMaschinenlernen
gearbeitet, bei dem die ein­
zelnen Rechenschritte und
Schlussfolgerungen nachvoll­
ziehbar sind. Das würde eine
Kontrolle und Korrektur ver­
einfachen. Aber auch ohne
diese Erklärbarkeit kann man
die Daten, mit denen eine
<<
Christiane Woopen
© Reiner Zensen
4
dbb
>
dbb magazin | Juni 2019
1,2,3 5,6,7,8,9,10,11,12,13,14,...48
Powered by FlippingBook