Automatisiertes Entscheiden in der öffentlichen Verwaltung

Automatisiertes Entscheiden in der öffentlichen Verwaltung
Foto von DeepMind auf Unsplash

Steuerveranlagung, Vergabe von Sozialleistungen, Bewilligungsverfahren: In zahlreichen Bereichen wird der Staat automatisierte Entscheide einsetzen dürfen. Dies weckt unweigerlich Ängste. Kommt es zu Diskriminierungen, ohne dass irgendjemand dies bemerkt? Erhalten Technologieanbieter noch mehr Macht? Sind solche Entscheidungen überhaupt nachvollziehbar? Es wäre zu einfach, diese Sorgen als Technophobie zu belächeln. Denn es gibt sehr gute Gründe, diesen Entwicklungen kritisch gegenüberzustehen. Einerseits können automatisierte Entscheidungen wenig nachvollziehbar sein. Andererseits gibt es bereits zahlreiche Beispiele von Systemen, die aufgrund von schlechten Trainingsdaten zu Diskriminierungen führten.

Wir fordern Kennzeichnung, Überprüfbarkeit, und Register, damit die automatisierte Einzelentscheidung im Staat zum Erfolgsmodell wird. Auf dem Spiel steht das Prinzip eines gerechten Staates im digitalen Zeitalter. Die technologische Entwicklung beschleunigt sich in hohem Tempo weiter, wie Systeme wie ChatGPT eindrücklich zeigen. Heute müssen die Weichen gestellt werden, damit diese Entwicklung in die richtige Richtung geht. Der Einsatz von automatisierten Einzelentscheidungen, insbesondere beim Einsatz von künstlicher Intelligenz, muss also demokratisch begleitet werden. Nur dann können Algorithmen den hohen ethischen und grundrechtlichen Standards, an denen sie gemessen werden müssen, auch gerecht werden.

Unser Positionspapier:

Newsletter

In Verbindung bleiben

Abonnieren Sie jetzt den Newsletter, um Teilnahmemöglichkeiten, Mitgliedschaft und laufende Updates zur CH++ Entwicklung zu erhalten!

Sprache (Sie erhalten den Newsletter in der Sprache, die Sie ausgewählt haben.)
Mitglied werden