dbb magazin 6/2019 - page 5

interview
„Künstliche Intelligenz“ trai­
niert wird, die Zwischener
­
gebnisse in komplexen algo­
rithmischen Systemen und
das Gesamtergebnis überprü­
fen, etwa im Hinblick auf Dis­
kriminierungen. Wie schon er­
wähnt, ist eine solche Überprü­
fung je nach dem Grad einer
möglichen Gefährdung von
Menschen und Umwelt durch
den Einsatz algorithmischer
Systeme mehr oder weniger
streng handzuhaben.
Ist es für Sie ethisch vertret-
bar, insbesondere hoheitliche
Dienstleistungen an künstliche
Intelligenz outzusourcen? Und
wer übernimmt in diesen Fäl-
len die Verantwortung für
das Handeln der KI?
Die Verantwortung muss im­
mer von Menschen und legi­
timierten Institutionen getra­
gen werden. Eine Maschine
kann keine Verantwortung
übernehmen, sie hat keine ei­
genen Werte, keine Fähigkeit
zu moralischer Abwägung
oder zur Gewichtung gesell­
schaftlicher Folgen.
Ob eine bestimmte Aufgabe
von Maschinen erledigt wer­
den kann und sollte, hängt
unter anderem davon ab, wie
sehr diese Aufgabe auf eine
Interaktion und Beziehung
zwischen Menschen angewie­
sen ist – besonders klar wird
das am Beispiel der Pflege
hilfsbedürftiger Menschen.
Wenn aber eine Aufgabe
nicht auf zwischenmensch-
liche Beziehungen angewie-
sen ist und besonders gut
und effizient durch eine Ma­
schine erledigt werden kann,
dann spricht auch bei hoheit­
lichen Aufgaben aus meiner
Sicht nichts dagegen – etwa
bei einem Risikomanagement­
system zur Steuerung der In­
tensität von Fallprüfungen bei
Steuererklärungen. Vielleicht
macht die Maschine ja in man­
chen Bereichen sogar weniger
Fehler. Es muss natürlich Trans­
parenz bestehen und die Mög­
lichkeit oder in bestimmten
Fällen von vorneherein die
Pflicht geben, ein algorith­
misch ermitteltes Ergebnis
zu überprüfen. Zudemmuss
der Betroffene gegebenen-
falls auch Einspruch erheben
können.
Wichtig ist in allen Fällen,
dass das algorithmische Sys­
tem eine hohe Qualität hat
und entsprechende Kontrol-
len durchgeführt werden.
Auch bei nicht hoheitlichen
Aufgaben können die Entschei­
dungen der Verwaltung enor­
me Auswirkungen auf das Le­
ben der Bürger haben – zum
Beispiel bei der Einschätzung,
welcher Arbeitssuchende an
welchen potenziellen Arbeit­
geber vermittelt werden kann.
Wie könnte eine Regelung aus­
sehen, bei der die Betroffenen
im Zweifel den Anspruch auf
eine von einem Menschen ge­
troffene Einschätzung durchset­
zen können? Ist das überhaupt
nötig, weil ja auch Menschen
hier fehlerhafte Entscheidun­
gen treffen können?
Auch hier gilt meiner Über­
zeugung nach, dass in einem
Rechtsstaat die Bürger einen
Anspruch darauf haben, Rechts­
mittel auch gegen nicht hoheit­
liche Entscheidungen der Ver­
waltung einzulegen, die sie
ungerecht finden und durch
die sie sich diskriminiert füh­
len. Gerade bei der Vermitt­
lung von Lebenschancen wie
einem Arbeitsverhältnis ist
es zudem ethisch geboten,
besonders sorgfältig vorzu­
gehen und dem einzelnen
Menschen gerecht zu werden.
Es spricht vieles dafür, dass
das durch eine Kombination
aus digitalen Hilfsmitteln wie
Datenbanken und algorith­
mischen Auswertungstech­
niken auf der einen Seite und
menschlichem Urteilsvermö­
gen auf der anderen Seite am
besten zu gewährleisten ist.
Wenn man demMenschen
gerecht werden möchte, muss
es auch die Möglichkeit zu Ein­
zelfallentscheidungen und zur
Abweichung von hochstandar­
disierten Systemen geben.
Hier ist eine schwierige Ba­
lance zu erreichen: Einerseits
darf ein technisches System
in sensiblen Bereichen nicht
so starr sein, dass wichtige in­
dividuelle Faktoren ausnahms­
los ignoriert werden, anderer­
seits darf die Flexibilität für
menschliche Eingriffe in das
Ergebnis nicht missbraucht
werden. Eine solche Balance
haben wir auch schon ohne
„Künstliche Intelligenz“ her­
zustellen, es wird unter den
Bedingungen moderner Tech­
nologie nur schwieriger. Ein
Beispiel hierfür kann die Be­
willigung von Leistungen der
Sozialversicherung sein. Vieles
wird sich hier routinemäßig
automatisiert machen lassen,
manches aber eben auch nicht,
weil die Einzelfälle sehr kom­
plex sein können.
Wenn künstliche Intelligenz
in den öffentlichen Dienst Ein­
zug hält, müssen sowohl die
Beschäftigten als auch die
Bürger für die Technik sensi­
bilisiert werden. Welche Mög­
lichkeiten gibt es Ihrer Mei­
nung nach, hier schnell einen
routinierten Umgang zu eta­
blieren, der nicht auf einen er­
heblichen Mehraufwand für
die Beschäftigten hinausläuft?
An dem Aufwand für eine –
im übrigen fortlaufende –
Qualifizierung und Fortbil­
dung für die Mitarbeiterinnen
und Mitarbeiter kommen wir
nicht vorbei. Technik entwi­
ckelt sich außerordentlich
schnell, und in kurzen Zeit
­
abständen erleben wir tech­
nologische Fortschritte, die
für die Ausübung vieler Tätig­
keiten relevant sind. Das er­
fordert von den Beschäftigten
die Bereitschaft, sich auf den
Wandel ihrer Tätigkeiten und
die Weiterentwicklung der ei­
genen Kompetenzen einzulas­
sen. Vom Arbeitgeber verlangt
es geeignete Rahmenbedin­
gungen zu schaffen, diesen
Bedarf zu erfüllen und auch
in geeigneter Weise zu kom­
munizieren. Sorgen müssen
wir natürlich für diejenigen,
für die der Erwerb neuer Kom­
petenzen nicht möglich ist.
Auch an einer Phase von Un­
sicherheiten und Unzufrieden­
heiten der Bürgerinnen und
Bürger werden wir wohl
nicht vorbeikommen. Erfor­
derliche Nachfragen oder
sogar Beschwerden und Ein­
sprüche können aber durch
gute Anleitungen, durch klug
aufgesetzte, gründlich vor
Einführung reflektierte und
qualitativ abgesicherte digita-
le Anwendungen so weit wie
möglich reduziert werden. Am
besten beteiligt man schon bei
der Entwicklung von technolo­
gisch gestützten Dienstleistun­
gen die zukünftigen Nutzerin­
nen und Nutzer. Dann lernt
man ihre Präferenzen und
auch mögliche Schwierigkei-
ten und Barrieren kennen.
Letztlich bin ich davon über­
zeugt, dass klug entwickelte
und eingesetzte algorithmi­
sche Systeme das Leben der
Menschen im privaten wie
beruflichen Bereich verein­
fachen und bereichern wer-
den. Sie werden uns Zeit
verschaffen und Möglich-
keiten eröffnen, um uns
mit den Dingen zu beschäf­
tigen, die uns wichtig sind.
Wir haben allerdings die
nicht ganz einfache Verant­
wortung, sie so zu gestalten,
dass sie dem Individuum und
der Gesellschaft dienen.
<<
Dr. Christiane Woopen .
. ist seit 2017 Vorsitzende
des Europäischen Ethikrates
(European Group on Ethics
in Science and New Tech­
nologies – EGE). Woopen
bekleidet seit 2009 die Pro­
fessur für Ethik und Theorie
der Medizin an der Univer­
sität zu Köln. Im Jahr 2013
wurde sie zudem zur Direk­
torin von CERES gewählt,
einem Zentrum für die in­
terdisziplinäre Forschung,
Aus- und Fortbildung sowie
Beratung zu gesellschafts
­
relevanten Themen im Be­
reich Gesundheit.
5
dbb
>
dbb magazin | Juni 2019
1,2,3,4 6,7,8,9,10,11,12,13,14,15,...48
Powered by FlippingBook