Zum Inhalt oder zum Footer

Künstliche Intelligenz betrifft Menschenrechte

19.02.2025 - 9 Min. Lesezeit

Portrait von Sabine Muff, Sozialinfo.

Sabine Muff

Produktmanagement Digitalisierung

Zwei Frauen unterhalten sich vor einem Bildschirm.

KI-Anwendungen sind immer mehr im Alltag der Sozialen Arbeit präsent. Der Einsatz erfolgt dabei unterschiedlich reflektiert. Fachpersonen der Sozialen Arbeit sind gefordert, KI-Anwendungen so einzusetzen, dass dabei die im Berufskodex verankerten Menschenrechte eingehalten werden.

KI soll uns unliebsame Arbeiten abnehmen und den (Arbeits-)Alltag erleichtern. Im Idealfall würden wir von Tätigkeiten entlastet, welche zeitaufwändig sind, aber nicht unbedingt sozialarbeiterisches Wissen bedingen, so dass wir die «gesparte» Zeit in die Beziehungsarbeit mit Adressat*innen oder die Reflexion des eigenen professionellen Handelns investieren könnten. KI-Assistenten könnten administrative Tätigkeiten übernehmen, Ressourcenplanungen per Knopfdruck ermöglichen oder grosse Datenmengen analysieren, um zielgruppenspezifische Probleme frühzeitig zu erkennen und entsprechende Dienstleistungen zu entwickeln. Für schwierige Entscheidungen könnten wir künftig algorithmische Unterstützung beiziehen und diese so breiter abstützen. Ist es wirklich so einfach?

Laut dem Berufskodex von AvenirSocial1 gilt die allgemeine Erklärung der Menschenrechte2 als Bezugsrahmen und Grundlage unserer Tätigkeit. Was bedeutet der zunehmende Einsatz von KI-Anwendungen im sozialarbeiterischen Arbeitsalltag für die Verwirklichung und den Schutz der Menschenrechte? Welche Risiken, aber auch Chancen sind aus Perspektive der Menschenrechte damit verbunden? Michelle Meier, Bildungsverantwortliche von Amnesty International Schweiz und Nathalie Klauser, Digitalethik-Expertin und Gründerin von Intersections, gehen diesen Fragen nach.

Interview: «Künstliche Intelligenz betrifft all unsere Rechte»

Sozialinfo / Sabine Muff: Wo siehst du einen Zusammenhang zwischen KI und Menschenrechten?

Michelle Meier: Mir ist im Hinblick auf meine Antworten und die weiteren Fragen wichtig vorauszuschicken, dass es keine allgemeingültige und anerkannte Definition des Begriffs ‘künstliche Intelligenz’ gibt. Viele Menschen verstehen Unterschiedliches darunter oder denken dabei an eine einzelne, neuere Technologie wie zum Beispiel ChatGPT. Dabei wird künstliche Intelligenz seit Jahren für diverse technologische Prozesse und Lösungen eingesetzt. Das europäische Parlament3 definiert sie wie folgt: «Künstliche Intelligenz ist die Fähigkeit einer Maschine, menschliche Fähigkeiten wie logisches Denken, Lernen, Planen und Kreativität zu imitieren.» Die Anwendungen von KI sind äusserst divers, woraus sich unzählige Berührungspunkte mit den Menschenrechten ergeben. Selbstverständlich kann künstliche Intelligenz eine Chance für Menschenrechte darstellen und zu deren Schutz, Förderung oder Verbreitung beitragen. Beispiele hierfür sind der erleichterte Zugang zu Informationen über Menschenrechte oder durch KI verbesserte Gesundheitsversorgung. Wie in fast allen Bereichen stellt künstliche Intelligenz hingegen auch eine Bedrohung für die Menschenrechte dar und führt zu Dynamiken, die Menschenrechte verletzen.

Welches sind die grössten Risiken für Menschenrechtsverletzungen durch den Einsatz von KI, kannst du konkrete Beispiele nennen?

Michelle Meier: Der offensichtlichste Zusammenhang zwischen KI und Menschenrechten besteht vermutlich mit denjenigen Rechten, welche im digitalen Raum präsent sind: Das Recht auf Privatsphäre wird verletzt, wenn ohne Zustimmung persönliche Daten gesammelt und weiterverwendet werden oder breitangelegte Überwachungsprogramme Gesichtserkennung nutzen. In sozialen Medien wird unser Recht auf Meinungs- und Informationsfreiheit verletzt, wenn beispielsweise personalisierte Vorschläge zu Echokammern führen oder Meinungen zensiert werden. Doch der Einfluss von künstlicher Intelligenz wirkt auch auf Menschenrechte in der analogen Welt: KI-Systeme verstärken bestehende diskriminierende Strukturen, indem die grossen Datenmodelle veraltete Darstellungen und Stereotypen weitertragen. KI-gesteuerte Drohnen und Waffensysteme werden in Kriegen eingesetzt und bedrohen das Recht auf Leben. Ein weniger offensichtlicher Zusammenhang zwischen künstlicher Intelligenz und Menschenrechten besteht im enormen Energieaufwand, welcher für das Training der grossen Sprachmodelle sowie den Betrieb und Unterhalt der Rechenzentren vonnöten ist. Grundsätzlich gilt, dass Menschenrechte unteilbar und interdependent sind – also voneinander abhängen. Wird ein Menschenrecht verletzt, sind oftmals auch andere Rechte in Gefahr. Es gibt also in diesem Sinne keine besonders schützenswerten Menschenrechte: Künstliche Intelligenz betrifft all unsere Rechte.

« Mit dem notwendigen Wissen im Rucksack ist es einfacher, künstliche Intelligenz so einzusetzen, dass sie möglichst keine Menschenrechte verletzt. »

Portrait von Michelle Meier

Michelle Meier

Welche Prinzipien sind für eine verantwortungsvolle Nutzung von KI-Systemen unter Berücksichtigung der Menschenrechte wichtig?

Michelle Meier: Eines der wichtigsten Prinzipien ist meiner Meinung nach die Transparenz, insbesondere in öffentlichen Diensten. Wie wurden die Sprachmodelle trainiert, mit denen gearbeitet wird? Wo werden automatisierte Entscheidungssysteme eingesetzt? Es ist also wichtig, sich Informationen darüber zu verschaffen, welche Folgen die eigene KI-Nutzung hat und welche potenziell menschenrechtsschädlichen Praktiken damit einhergehen. Mit dem notwendigen Wissen im Rucksack ist es einfacher, künstliche Intelligenz so einzusetzen, dass sie möglichst keine Menschenrechte verletzt.

Worauf muss beim Einsatz von KI, beispielsweise beim Generieren von Inhalten, geachtet werden, um Diskriminierungen zu vermeiden oder zu erkennen?

Michelle Meier: Es braucht im Umgang mit KI – und ganz besonders im sozialen Bereich – immer noch den Menschen, der KI als Tool nützt und der mit seiner Expertise die Ergebnisse einordnen kann. Das lässt sich mit einem Beispiel aus den Niederlanden veranschaulichen: Die niederländische Steuerbehörde hat sich jahrelang auf ein automatisiertes Entscheid-System gestützt, das eine nicht-niederländische Nationalität als Risikofaktor gewertet hat. Dies führte zu einer Diskriminierung bei der Vergabe von Krediten und Kindesgeldern. KI macht Fehler und ist nicht vorurteilsfrei. Es braucht uns Menschen, um automatisierte Entscheidungen zu überprüfen. Dabei ist es natürlich nötig, sich seiner eigenen Stereotypen und Vorurteilen bewusst zu sein. Denn darauf beruhen Diskriminierungen: Wenn ich Menschen aufgrund ihres Aussehens oder anderer Merkmale in Gruppen einteile und mich ihnen gegenüber aufgrund dieser Einteilung anders verhalte. Wenn ich beispielsweise Bilder mit KI generiere, muss mir bewusst sein, dass die daraus entstehenden Darstellungen möglicherweise Stereotypen weiterverbreiten und damit verstärken. Es ist also wichtig, dass ich generierte Inhalte und deren Bedeutung kritisch hinterfrage und immer als solche kennzeichne, damit auch andere Menschen, welche die Inhalte nutzen, deren Bedeutung einordnen und reflektieren können.

Gibt es Situationen, in denen aus deiner Sicht der Einsatz von KI ethisch verpflichtend ist?

Michelle Meier: Es gibt unzählige Beispiele für einen menschenrechtlich sinnvollen Einsatz von künstlicher Intelligenz. Beispielsweise die Fähigkeit der KI, atypische Muttermale mit einer unglaublichen Treffsicherheit zu erkennen, Hautkrebs vorzubeugen und somit einen grossen Beitrag zum Recht auf Gesundheit zu leisten. Der Einsatz der KI ist aus meiner Sicht in denjenigen Fällen ethisch sinnvoll, wenn die Nutzung Ressourcen spart (im Muttermalbeispiel die Ressourcen von Dermatolog*innen, die effizienter eingesetzt werden können) und keine menschenrechtlichen Risiken birgt. Der Nutzen muss dabei als grösser eingeschätzt werden als der enorme Energieverbrauch, der mit KI einhergeht. Es ist also eine komplexe Abwägung.

Prinzipien für die Einschätzung eines verantwortungsvollen Einsatzes von KI-Systemen

Um zu prüfen, ob die Voraussetzungen für eine verantwortungsvollen Einsatz von KI-Systemen erfüllt sind, verweist Nathalie Klauser auf die «biomedizinethischen Prinzipien» als Orientierungsrahmen.

Wer haftet bei Menschenrechtsverstössen durch den Einsatz von KI? Wenn ich einen Menschenrechtsverstoss feststelle, was kann ich dagegen unternehmen?

Michelle Meier: Das internationale Menschenrechtssystem sieht vor, dass der Staat die Menschenrechte seiner Bürger*innen schützen, fördern und einhalten muss. Im Grunde genommen könnte ich also meine Rechte vor Schweizer Gerichten einklagen, wenn sie verletzt werden. Nun gibt es dabei einige Hindernisse. Erstens ist KI eine relativ neue Technologie, und unsere Gesetze und Regulationen sind noch nicht darauf ausgelegt, einen menschenrechtswürdigen Einsatz zu garantieren. Zweitens handelt es sich bei vielen Einsatzmöglichkeiten von künstlicher Intelligenz um Technologien, welche staatliche Grenzen missachten. Viele Anbieter haben ihren Sitz im Ausland, was es Schweizer Gerichten und Behörden schwierig macht, darauf Einfluss zu nehmen. Es liegt in diesem Bereich also eine grosse Arbeit vor uns.

« Es laufen unterschiedliche Bestrebungen, ethische Standards in Labels oder Fairness-Kategorisierungen zu formen. »

Portrait von Nathalie Klauser

Nathalie Klauser

Im Zusammenhang mit Risiken von KI-Anwendungen wurden verschiedene Massnahmen zur Regulierung getroffen, beispielsweise der AI Act der EU4. Sind solche Regulierungen sinnvoll, um die Einhaltung der Menschenrechte zu unterstützen?

Michelle Meier: Amnesty International hat sich in einer breiten Koalition von Digital- und Menschenrechtsorganisationen dafür engagiert, dass der AI Act der EU auf einem menschenrechtszentrierten Ansatz aufbaut, bei dem die Menschenrechte Vorrang haben und klare rote Linien gegen inakzeptable Anwendungen von KI-Systemen gezogen werden. Leider wurden aus unserer Sicht viele Gelegenheiten verpasst, um sicherzustellen, dass unsere Rechte und Freiheiten durch diesen Act tatsächlich geschützt werden. So zum Beispiel mit der pauschalen Ausnahmeregelung für KI-Systeme im Rahmen der nationalen Sicherheit oder das nur teilweise greifende Verbot von gefährlichen Praktiken wie öffentlicher Live-Gesichtserkennung, biometrischer Kategorisierung oder Emotionserkennung. Gleichzeitig konnten wir die Entscheidungsträger*innen erfolgreich davon überzeugen, dass auch die Betreibenden von KI-Systemen (und nicht nur Anbietende) einer Transparenzpflicht unterliegen. Wenn man bedenkt, dass sich in anderen Wirtschaftsräumen grosse, mächtige Firmen über jegliche Rechte hinwegsetzen, würde ich sagen: Ja, solche Regulierungen sind durchaus sinnvoll, auch wenn sie noch zu wenig greifen.

Aktueller Stand der rechtlichen Rahmenbedingungen und ethischen Standards

Fragen an Nathalie Klauser

Mittels Leitlinien können Organisationen Orientierung für den Einsatz von KI schaffen. Welche Aspekte sollen aus Perspektive der Menschenrechte darin berücksichtigt werden?

Michelle Meier: Mir scheint in erster Linie Weiterbildung zum Umgang mit KI in Unternehmen zentral. Gemeinsam kann herausgefunden werden, welche unternehmerischen Praktiken möglicherweise menschenrechtsschädliche Einflüsse haben oder bei welchen Aktivitäten besondere Vorsicht geboten ist. Daraus Leitlinien zu erarbeiten ist sicher sinnvoll – Leitlinien alleine gehen vermutlich zu wenig weit. Ich denke, dass eine vertiefte Auseinandersetzung mit den Mechanismen von KI notwendig ist, um Vorteile und Gefahren sinnvoll abwägen zu können.

Kriterien für Transparenz und Erklärbarkeit von KI-Systemen

Nathalie Klauser nennt verschiedene Kriterien, anhand derer KI-Systeme in Bezug auf Transparenz und Erklärbarkeit überprüft werden können.

Wie können wir Adressat*innen dabei unterstützen, die Anforderungen zu bewältigen, welche durch die zunehmende Durchdringung des Alltages mittels KI-Anwendungen an sie gestellt werden?

Michelle Meier: Indem wir uns weiterbilden oder Weiterbildung einfordern. Und indem wir eigene Erfahrungen teilen und künstliche Intelligenz thematisieren – nicht als angsteinflössende, unbekannte Macht, sondern als technisches Mittel, das genauso Gefahren wie auch Vorteile mit sich bringt. Als Zivilgesellschaft (und ganz besonders in der Schweiz) sind wir nicht einfach gelähmt, sondern haben die Möglichkeit, Transparenz einzufordern und den sinnvollen Einsatz von KI mitzugestalten.

Wie beeinflusst das Menschenbild der künstlichen Intelligenz – welches auf Algorithmen basiert – unser Verständnis von Menschenwürde? Wie wirkt sich das auf eine menschenrechtsbasierte Gesellschaft aus?

Michelle Meier: Die Auswirkungen von KI-Systemen und Algorithmen auf Entscheidungen, welche die Menschenwürde betreffen, sind zweiseitig. Einerseits birgt die Anwendung natürlich ein Risiko, weil die Menschen nicht mehr als Personen, sondern als eine Menge von Variablen in einem System erfasst sind. Das ist eine sehr eingeschränkte Sicht. Gleichzeitig birgt genau das auch Vorteile, weil es oftmals zu gerechteren Lösungen führt. Eine Maschine entscheidet immer gleich, unabhängig von persönlichen Sympathien. Wenn die Maschine auf verlässlichen, diskriminierungsfreien Daten trainiert wurde, führt sie also möglicherweise sogar zu menschenwürdigeren Entscheiden.

« Die Menschenrechte beschreiben universell gültige Grundbedürfnisse des Menschen, welche sich durch KI nicht verändern. »

Portrait von Michelle Meier

Michelle Meier

Sind die Ideale der Menschenrechte der Dynamik der gesellschaftlichen Veränderungen durch KI überhaupt gewachsen?

Michelle Meier: Die Allgemeine Erklärung der Menschenrechte wurde im Jahr 1948 verabschiedet – selbstverständlich wurde künstliche Intelligenz damals nicht im Geringsten mitgedacht. Doch die Menschenrechte beschreiben universell gültige Grundbedürfnisse des Menschen, welche sich durch KI nicht verändern. Also ja: Das Menschenrechtssystem kann uns im Umgang mit KI sehr nützlich sein.

Die immer breitere Anwendung von KI-Systemen basieren auf einem massiven Verbrauch von Energie und Ressourcen. Inwiefern tangiert dies menschenrechtliche Aspekte wie etwa die Verantwortung, unseren Nachkommen eine intakte Biosphäre zu hinterlassen?

Michelle Meier: Der Ressourcenverbrauch von KI-Systemen ist gerade in aller Munde – zum Glück! Das Training von Sprachmodellen, auf denen beispielsweise ChatGPT basiert, ist enorm stromintensiv. Das Kühlen der IT-Infrastruktur hat ausserdem einen enormen Wasserverbrauch. 20 bis 50 Anfragen bei ChatGPT 3 verbrauchen geschätzt einen halben Liter Wasser, jede Anfrage braucht 10-mal so viel Strom wie eine Google-Anfrage (für mehr Infos zu diesen Schätzungen siehe powernewz8). Das steht unserer Verantwortung, die Menschenrechte künftiger Generationen zu schützen, stark im Weg. Die Klimakrise hat enorme Auswirkungen auf die Menschenrechte. Gleichzeitig dürfen wir nicht vergessen: Viele KI-Systeme helfen beim Energiesparen, und zwar seit Jahren. Auch hier wieder gilt: Es hilft nichts, KI zu verteufeln. Wir Menschen müssen uns dieses Tool auf menschenrechts- und umweltfreundliche Art und Weise zunutze machen.

Worin siehst du Chancen für die Gesellschaft allgemein und für die Umsetzung der Menschenrechte durch KI, kennst du Beispiele?

Michelle Meier: Es gibt unzählige Beispiele. Für mich als Menschenrechtsbildnerin ist die Demokratisierung von Informationen eines der Schönsten: Wissen, das früher einer kleinen Gruppe von Expert*innen und privilegierten Personen vorbehalten war, wird jetzt einfacher und breiter verfügbar gemacht. Sprachbarrieren werden durch KI-gestützte Übersetzungssysteme überwunden, Informationsmonopole werden reduziert.

« Achte darauf, KI-Systeme inklusiv zu nutzen und das Ergebnis auf unterschiedlichen Perspektiven kritisch zu hinterfragen. »

Portrait von Nathalie Klauser

Nathalie Klauser

Welche Rolle haben Fachpersonen der Sozialen Arbeit aus Sicht von Amnesty International (oder deiner Sicht) bei der Diskussion über den Einsatz von KI-Anwendungen? Was können sie - auch als Einzelperson – tun, um auf das Risiko der Diskriminierung und Benachteiligung bestimmter Gruppen durch KI-Anwendungen aufmerksam zu machen?

Michelle Meier: Ich würde nicht bei Amnesty arbeiten, wenn ich nicht einen grossen Glauben daran hätte, dass wir als Einzelpersonen Einfluss nehmen können. Indem wir in unserem Alltag über KI sprechen, Systeme und Ergebnisse kritisch hinterfragen, Transparenz fordern und schaffen und uns dieses Tool auf sinnvolle Art und Weise zunutze machen, können wir eine positive Entwicklung der künstlichen Intelligenz mitprägen. Insbesondere Fachpersonen der Sozialen Arbeit, die tagtäglich mit Menschen in Kontakt sind, spielen dabei eine bedeutende Rolle. Es ist wichtig, dass sie bei der ethischen Bewertung von KI-Systemen oder deren Einsatz in sensiblen Bereichen mitdenken und mitentscheiden.

Tipps für die Anwendung von KI im Alltag

Nathalie Klauser nennt verschiedene Kriterien, auf welche Nutzer*innen von KI in der täglichen Anwendung achten können, um nicht selbst gegen Menschenrechte zu verstossen:

Autor*in