KI-Anwendungen sind immer mehr im Alltag der Sozialen Arbeit präsent. Der Einsatz erfolgt dabei unterschiedlich reflektiert. Fachpersonen der Sozialen Arbeit sind gefordert, KI-Anwendungen so einzusetzen, dass dabei die im Berufskodex verankerten Menschenrechte eingehalten werden.
KI soll uns unliebsame Arbeiten abnehmen und den (Arbeits-)Alltag erleichtern. Im Idealfall würden wir von Tätigkeiten entlastet, welche zeitaufwändig sind, aber nicht unbedingt sozialarbeiterisches Wissen bedingen, so dass wir die «gesparte» Zeit in die Beziehungsarbeit mit Adressat*innen oder die Reflexion des eigenen professionellen Handelns investieren könnten. KI-Assistenten könnten administrative Tätigkeiten übernehmen, Ressourcenplanungen per Knopfdruck ermöglichen oder grosse Datenmengen analysieren, um zielgruppenspezifische Probleme frühzeitig zu erkennen und entsprechende Dienstleistungen zu entwickeln. Für schwierige Entscheidungen könnten wir künftig algorithmische Unterstützung beiziehen und diese so breiter abstützen. Ist es wirklich so einfach?
Laut dem Berufskodex von AvenirSocial1 gilt die allgemeine Erklärung der Menschenrechte2 als Bezugsrahmen und Grundlage unserer Tätigkeit. Was bedeutet der zunehmende Einsatz von KI-Anwendungen im sozialarbeiterischen Arbeitsalltag für die Verwirklichung und den Schutz der Menschenrechte? Welche Risiken, aber auch Chancen sind aus Perspektive der Menschenrechte damit verbunden? Michelle Meier, Bildungsverantwortliche von Amnesty International Schweiz und Nathalie Klauser, Digitalethik-Expertin und Gründerin von Intersections, gehen diesen Fragen nach.
Interview: «Künstliche Intelligenz betrifft all unsere Rechte»
Sozialinfo / Sabine Muff: Wo siehst du einen Zusammenhang zwischen KI und Menschenrechten?
Michelle Meier: Mir ist im Hinblick auf meine Antworten und die weiteren Fragen wichtig vorauszuschicken, dass es keine allgemeingültige und anerkannte Definition des Begriffs ‘künstliche Intelligenz’ gibt. Viele Menschen verstehen Unterschiedliches darunter oder denken dabei an eine einzelne, neuere Technologie wie zum Beispiel ChatGPT. Dabei wird künstliche Intelligenz seit Jahren für diverse technologische Prozesse und Lösungen eingesetzt. Das europäische Parlament3 definiert sie wie folgt: «Künstliche Intelligenz ist die Fähigkeit einer Maschine, menschliche Fähigkeiten wie logisches Denken, Lernen, Planen und Kreativität zu imitieren.» Die Anwendungen von KI sind äusserst divers, woraus sich unzählige Berührungspunkte mit den Menschenrechten ergeben. Selbstverständlich kann künstliche Intelligenz eine Chance für Menschenrechte darstellen und zu deren Schutz, Förderung oder Verbreitung beitragen. Beispiele hierfür sind der erleichterte Zugang zu Informationen über Menschenrechte oder durch KI verbesserte Gesundheitsversorgung. Wie in fast allen Bereichen stellt künstliche Intelligenz hingegen auch eine Bedrohung für die Menschenrechte dar und führt zu Dynamiken, die Menschenrechte verletzen.
Welches sind die grössten Risiken für Menschenrechtsverletzungen durch den Einsatz von KI, kannst du konkrete Beispiele nennen?
Michelle Meier: Der offensichtlichste Zusammenhang zwischen KI und Menschenrechten besteht vermutlich mit denjenigen Rechten, welche im digitalen Raum präsent sind: Das Recht auf Privatsphäre wird verletzt, wenn ohne Zustimmung persönliche Daten gesammelt und weiterverwendet werden oder breitangelegte Überwachungsprogramme Gesichtserkennung nutzen. In sozialen Medien wird unser Recht auf Meinungs- und Informationsfreiheit verletzt, wenn beispielsweise personalisierte Vorschläge zu Echokammern führen oder Meinungen zensiert werden. Doch der Einfluss von künstlicher Intelligenz wirkt auch auf Menschenrechte in der analogen Welt: KI-Systeme verstärken bestehende diskriminierende Strukturen, indem die grossen Datenmodelle veraltete Darstellungen und Stereotypen weitertragen. KI-gesteuerte Drohnen und Waffensysteme werden in Kriegen eingesetzt und bedrohen das Recht auf Leben. Ein weniger offensichtlicher Zusammenhang zwischen künstlicher Intelligenz und Menschenrechten besteht im enormen Energieaufwand, welcher für das Training der grossen Sprachmodelle sowie den Betrieb und Unterhalt der Rechenzentren vonnöten ist. Grundsätzlich gilt, dass Menschenrechte unteilbar und interdependent sind – also voneinander abhängen. Wird ein Menschenrecht verletzt, sind oftmals auch andere Rechte in Gefahr. Es gibt also in diesem Sinne keine besonders schützenswerten Menschenrechte: Künstliche Intelligenz betrifft all unsere Rechte.
« Mit dem notwendigen Wissen im Rucksack ist es einfacher, künstliche Intelligenz so einzusetzen, dass sie möglichst keine Menschenrechte verletzt. »
Welche Prinzipien sind für eine verantwortungsvolle Nutzung von KI-Systemen unter Berücksichtigung der Menschenrechte wichtig?
Michelle Meier: Eines der wichtigsten Prinzipien ist meiner Meinung nach die Transparenz, insbesondere in öffentlichen Diensten. Wie wurden die Sprachmodelle trainiert, mit denen gearbeitet wird? Wo werden automatisierte Entscheidungssysteme eingesetzt? Es ist also wichtig, sich Informationen darüber zu verschaffen, welche Folgen die eigene KI-Nutzung hat und welche potenziell menschenrechtsschädlichen Praktiken damit einhergehen. Mit dem notwendigen Wissen im Rucksack ist es einfacher, künstliche Intelligenz so einzusetzen, dass sie möglichst keine Menschenrechte verletzt.
Worauf muss beim Einsatz von KI, beispielsweise beim Generieren von Inhalten, geachtet werden, um Diskriminierungen zu vermeiden oder zu erkennen?
Michelle Meier: Es braucht im Umgang mit KI – und ganz besonders im sozialen Bereich – immer noch den Menschen, der KI als Tool nützt und der mit seiner Expertise die Ergebnisse einordnen kann. Das lässt sich mit einem Beispiel aus den Niederlanden veranschaulichen: Die niederländische Steuerbehörde hat sich jahrelang auf ein automatisiertes Entscheid-System gestützt, das eine nicht-niederländische Nationalität als Risikofaktor gewertet hat. Dies führte zu einer Diskriminierung bei der Vergabe von Krediten und Kindesgeldern. KI macht Fehler und ist nicht vorurteilsfrei. Es braucht uns Menschen, um automatisierte Entscheidungen zu überprüfen. Dabei ist es natürlich nötig, sich seiner eigenen Stereotypen und Vorurteilen bewusst zu sein. Denn darauf beruhen Diskriminierungen: Wenn ich Menschen aufgrund ihres Aussehens oder anderer Merkmale in Gruppen einteile und mich ihnen gegenüber aufgrund dieser Einteilung anders verhalte. Wenn ich beispielsweise Bilder mit KI generiere, muss mir bewusst sein, dass die daraus entstehenden Darstellungen möglicherweise Stereotypen weiterverbreiten und damit verstärken. Es ist also wichtig, dass ich generierte Inhalte und deren Bedeutung kritisch hinterfrage und immer als solche kennzeichne, damit auch andere Menschen, welche die Inhalte nutzen, deren Bedeutung einordnen und reflektieren können.
Gibt es Situationen, in denen aus deiner Sicht der Einsatz von KI ethisch verpflichtend ist?
Michelle Meier: Es gibt unzählige Beispiele für einen menschenrechtlich sinnvollen Einsatz von künstlicher Intelligenz. Beispielsweise die Fähigkeit der KI, atypische Muttermale mit einer unglaublichen Treffsicherheit zu erkennen, Hautkrebs vorzubeugen und somit einen grossen Beitrag zum Recht auf Gesundheit zu leisten. Der Einsatz der KI ist aus meiner Sicht in denjenigen Fällen ethisch sinnvoll, wenn die Nutzung Ressourcen spart (im Muttermalbeispiel die Ressourcen von Dermatolog*innen, die effizienter eingesetzt werden können) und keine menschenrechtlichen Risiken birgt. Der Nutzen muss dabei als grösser eingeschätzt werden als der enorme Energieverbrauch, der mit KI einhergeht. Es ist also eine komplexe Abwägung.
Prinzipien für die Einschätzung eines verantwortungsvollen Einsatzes von KI-Systemen
Um zu prüfen, ob die Voraussetzungen für eine verantwortungsvollen Einsatz von KI-Systemen erfüllt sind, verweist Nathalie Klauser auf die «biomedizinethischen Prinzipien» als Orientierungsrahmen.
- Schadensvermeidung: Minimierung negativer Auswirkungen eines KI-Einsatzes für Einzelpersonen und die Gesellschaft
- Gerechtigkeit und Fairness: Verhinderung von Vorurteilen und Diskriminierung
- Autonomie: Wahrung der Entscheidungsfreiheit des Individuums
- Benefizienz (Wohlergehen und Nachhaltigkeit): Nutzen der Technologie für Einzelne und die Gesellschaft
Diese Prinzipien decken grundlegende ethische Werte ab, welche auf verschiedene Bereiche und somit auch auf KI anwendbar sind.
Instrumente für die Umsetzung dieser Prinzipien sind:
- Transparenz
- Kontrollen
- Rechenschaftspflicht (Governance)
Wer haftet bei Menschenrechtsverstössen durch den Einsatz von KI? Wenn ich einen Menschenrechtsverstoss feststelle, was kann ich dagegen unternehmen?
Michelle Meier: Das internationale Menschenrechtssystem sieht vor, dass der Staat die Menschenrechte seiner Bürger*innen schützen, fördern und einhalten muss. Im Grunde genommen könnte ich also meine Rechte vor Schweizer Gerichten einklagen, wenn sie verletzt werden. Nun gibt es dabei einige Hindernisse. Erstens ist KI eine relativ neue Technologie, und unsere Gesetze und Regulationen sind noch nicht darauf ausgelegt, einen menschenrechtswürdigen Einsatz zu garantieren. Zweitens handelt es sich bei vielen Einsatzmöglichkeiten von künstlicher Intelligenz um Technologien, welche staatliche Grenzen missachten. Viele Anbieter haben ihren Sitz im Ausland, was es Schweizer Gerichten und Behörden schwierig macht, darauf Einfluss zu nehmen. Es liegt in diesem Bereich also eine grosse Arbeit vor uns.
« Es laufen unterschiedliche Bestrebungen, ethische Standards in Labels oder Fairness-Kategorisierungen zu formen. »
Im Zusammenhang mit Risiken von KI-Anwendungen wurden verschiedene Massnahmen zur Regulierung getroffen, beispielsweise der AI Act der EU4. Sind solche Regulierungen sinnvoll, um die Einhaltung der Menschenrechte zu unterstützen?
Michelle Meier: Amnesty International hat sich in einer breiten Koalition von Digital- und Menschenrechtsorganisationen dafür engagiert, dass der AI Act der EU auf einem menschenrechtszentrierten Ansatz aufbaut, bei dem die Menschenrechte Vorrang haben und klare rote Linien gegen inakzeptable Anwendungen von KI-Systemen gezogen werden. Leider wurden aus unserer Sicht viele Gelegenheiten verpasst, um sicherzustellen, dass unsere Rechte und Freiheiten durch diesen Act tatsächlich geschützt werden. So zum Beispiel mit der pauschalen Ausnahmeregelung für KI-Systeme im Rahmen der nationalen Sicherheit oder das nur teilweise greifende Verbot von gefährlichen Praktiken wie öffentlicher Live-Gesichtserkennung, biometrischer Kategorisierung oder Emotionserkennung. Gleichzeitig konnten wir die Entscheidungsträger*innen erfolgreich davon überzeugen, dass auch die Betreibenden von KI-Systemen (und nicht nur Anbietende) einer Transparenzpflicht unterliegen. Wenn man bedenkt, dass sich in anderen Wirtschaftsräumen grosse, mächtige Firmen über jegliche Rechte hinwegsetzen, würde ich sagen: Ja, solche Regulierungen sind durchaus sinnvoll, auch wenn sie noch zu wenig greifen.
Aktueller Stand der rechtlichen Rahmenbedingungen und ethischen Standards
Fragen an Nathalie Klauser
Gibt es ethische, auf den Menschenrechten basierende Standards für die Entwicklung und das Training von KI-Systemen?
Nathalie Klauser: Für den EU-Raum ist der AI Act seit August 2024 verpflichtend. Einen anderen Ansatz fährt die Schweiz: Der Bundesrat hat Mitte Februar 2025 eine Auslegeordnung publiziert5. Darin wird die KI-Konvention des Europarats ins Schweizer Recht übernommen. Gesetzesanpassungen sollen möglichst sektorbezogen gelöst werden. Bei der Umsetzung nimmt sich die Schweiz Zeit: bis Ende 2026 soll die Vernehmlassungsvorlage stehen und in der Regel dauert es mindestens zwei Jahre bis zur Ausarbeitung – das heisst, vor 2029 ist wahrscheinlich keine Umsetzung zu erwarten.
Wie erkenne ich, welche Anbietenden ethische Standards berücksichtigen, gibt es eine Art Label?
Nathalie Klauser: Es laufen unterschiedliche Bestrebungen, ethische Standards in Labels oder Fairness-Kategorisierungen zu formen: Entweder von Anbietenden durch eine Selbstdeklarierung in System Cards oder mit Labels von Wirtschafts- und Branchenverbänden.6 Demokratisch ausgehandelte Gesetzartikel wie der EU AI Act werden in den kommenden zwei Jahren neue Zertifizierungen und eine Konsolidierung der Messbarkeit hervorbringen.
Die Bemühungen von Organisationen in diesem Bereich werden ersichtlich, wenn Transparenz, Kontrolle und Rechenschaftspflicht gegenüber beispielsweise den biomedizinethischen (Schadensvermeidung, Fairness, Autonomie, Benefizienz) oder supranational definierten Standards7 gewährleistet werden.
Mittels Leitlinien können Organisationen Orientierung für den Einsatz von KI schaffen. Welche Aspekte sollen aus Perspektive der Menschenrechte darin berücksichtigt werden?
Michelle Meier: Mir scheint in erster Linie Weiterbildung zum Umgang mit KI in Unternehmen zentral. Gemeinsam kann herausgefunden werden, welche unternehmerischen Praktiken möglicherweise menschenrechtsschädliche Einflüsse haben oder bei welchen Aktivitäten besondere Vorsicht geboten ist. Daraus Leitlinien zu erarbeiten ist sicher sinnvoll – Leitlinien alleine gehen vermutlich zu wenig weit. Ich denke, dass eine vertiefte Auseinandersetzung mit den Mechanismen von KI notwendig ist, um Vorteile und Gefahren sinnvoll abwägen zu können.
Kriterien für Transparenz und Erklärbarkeit von KI-Systemen
Nathalie Klauser nennt verschiedene Kriterien, anhand derer KI-Systeme in Bezug auf Transparenz und Erklärbarkeit überprüft werden können.
Transparenz:
- Zugängliche Dokumentation des KI-Systems:
- Definition des Ziels und Indikatoren zur Evaluation der Auswirkung.
- Daten-Hintergrund: Quellen- und Verarbeitungsdeklaration.
- Bias-Rapport: Welche Verzerrungen oder Fehler sind bei welchen Prozessen oder Personengruppen bereits aufgetreten beziehungsweise wahrscheinlich?
- Governance: Modellarchitektur, Entscheidungsprozesse und Rollenverantwortlichkeiten.
- Protokollierung und Nachvollziehbarkeit: Entscheidungen von KI-Systemen und ihren Interaktionen sollten einsehbar und dokumentiert sein
- Offenlegung der Nutzung/ Deklaration von KI-Systemen
Erklärbarkeit von KI-Systemen
- Benutzerfreundlichkeit und Verständlichkeit
- Human-in-the-Loop: Der Mensch behält die Übersicht und Kontrolle von KI-Systemen
- Algorithmisches Auditing: Unabhängige Prüfung der KI-Modelle
- Modellinterpretation: beispielsweise Entscheidungsbäume oder Indikatorengewichtung
Wie können wir Adressat*innen dabei unterstützen, die Anforderungen zu bewältigen, welche durch die zunehmende Durchdringung des Alltages mittels KI-Anwendungen an sie gestellt werden?
Michelle Meier: Indem wir uns weiterbilden oder Weiterbildung einfordern. Und indem wir eigene Erfahrungen teilen und künstliche Intelligenz thematisieren – nicht als angsteinflössende, unbekannte Macht, sondern als technisches Mittel, das genauso Gefahren wie auch Vorteile mit sich bringt. Als Zivilgesellschaft (und ganz besonders in der Schweiz) sind wir nicht einfach gelähmt, sondern haben die Möglichkeit, Transparenz einzufordern und den sinnvollen Einsatz von KI mitzugestalten.
Wie beeinflusst das Menschenbild der künstlichen Intelligenz – welches auf Algorithmen basiert – unser Verständnis von Menschenwürde? Wie wirkt sich das auf eine menschenrechtsbasierte Gesellschaft aus?
Michelle Meier: Die Auswirkungen von KI-Systemen und Algorithmen auf Entscheidungen, welche die Menschenwürde betreffen, sind zweiseitig. Einerseits birgt die Anwendung natürlich ein Risiko, weil die Menschen nicht mehr als Personen, sondern als eine Menge von Variablen in einem System erfasst sind. Das ist eine sehr eingeschränkte Sicht. Gleichzeitig birgt genau das auch Vorteile, weil es oftmals zu gerechteren Lösungen führt. Eine Maschine entscheidet immer gleich, unabhängig von persönlichen Sympathien. Wenn die Maschine auf verlässlichen, diskriminierungsfreien Daten trainiert wurde, führt sie also möglicherweise sogar zu menschenwürdigeren Entscheiden.
« Die Menschenrechte beschreiben universell gültige Grundbedürfnisse des Menschen, welche sich durch KI nicht verändern. »
Sind die Ideale der Menschenrechte der Dynamik der gesellschaftlichen Veränderungen durch KI überhaupt gewachsen?
Michelle Meier: Die Allgemeine Erklärung der Menschenrechte wurde im Jahr 1948 verabschiedet – selbstverständlich wurde künstliche Intelligenz damals nicht im Geringsten mitgedacht. Doch die Menschenrechte beschreiben universell gültige Grundbedürfnisse des Menschen, welche sich durch KI nicht verändern. Also ja: Das Menschenrechtssystem kann uns im Umgang mit KI sehr nützlich sein.
Die immer breitere Anwendung von KI-Systemen basieren auf einem massiven Verbrauch von Energie und Ressourcen. Inwiefern tangiert dies menschenrechtliche Aspekte wie etwa die Verantwortung, unseren Nachkommen eine intakte Biosphäre zu hinterlassen?
Michelle Meier: Der Ressourcenverbrauch von KI-Systemen ist gerade in aller Munde – zum Glück! Das Training von Sprachmodellen, auf denen beispielsweise ChatGPT basiert, ist enorm stromintensiv. Das Kühlen der IT-Infrastruktur hat ausserdem einen enormen Wasserverbrauch. 20 bis 50 Anfragen bei ChatGPT 3 verbrauchen geschätzt einen halben Liter Wasser, jede Anfrage braucht 10-mal so viel Strom wie eine Google-Anfrage (für mehr Infos zu diesen Schätzungen siehe powernewz8). Das steht unserer Verantwortung, die Menschenrechte künftiger Generationen zu schützen, stark im Weg. Die Klimakrise hat enorme Auswirkungen auf die Menschenrechte. Gleichzeitig dürfen wir nicht vergessen: Viele KI-Systeme helfen beim Energiesparen, und zwar seit Jahren. Auch hier wieder gilt: Es hilft nichts, KI zu verteufeln. Wir Menschen müssen uns dieses Tool auf menschenrechts- und umweltfreundliche Art und Weise zunutze machen.
Worin siehst du Chancen für die Gesellschaft allgemein und für die Umsetzung der Menschenrechte durch KI, kennst du Beispiele?
Michelle Meier: Es gibt unzählige Beispiele. Für mich als Menschenrechtsbildnerin ist die Demokratisierung von Informationen eines der Schönsten: Wissen, das früher einer kleinen Gruppe von Expert*innen und privilegierten Personen vorbehalten war, wird jetzt einfacher und breiter verfügbar gemacht. Sprachbarrieren werden durch KI-gestützte Übersetzungssysteme überwunden, Informationsmonopole werden reduziert.
« Achte darauf, KI-Systeme inklusiv zu nutzen und das Ergebnis auf unterschiedlichen Perspektiven kritisch zu hinterfragen. »
Welche Rolle haben Fachpersonen der Sozialen Arbeit aus Sicht von Amnesty International (oder deiner Sicht) bei der Diskussion über den Einsatz von KI-Anwendungen? Was können sie - auch als Einzelperson – tun, um auf das Risiko der Diskriminierung und Benachteiligung bestimmter Gruppen durch KI-Anwendungen aufmerksam zu machen?
Michelle Meier: Ich würde nicht bei Amnesty arbeiten, wenn ich nicht einen grossen Glauben daran hätte, dass wir als Einzelpersonen Einfluss nehmen können. Indem wir in unserem Alltag über KI sprechen, Systeme und Ergebnisse kritisch hinterfragen, Transparenz fordern und schaffen und uns dieses Tool auf sinnvolle Art und Weise zunutze machen, können wir eine positive Entwicklung der künstlichen Intelligenz mitprägen. Insbesondere Fachpersonen der Sozialen Arbeit, die tagtäglich mit Menschen in Kontakt sind, spielen dabei eine bedeutende Rolle. Es ist wichtig, dass sie bei der ethischen Bewertung von KI-Systemen oder deren Einsatz in sensiblen Bereichen mitdenken und mitentscheiden.
Tipps für die Anwendung von KI im Alltag
Nathalie Klauser nennt verschiedene Kriterien, auf welche Nutzer*innen von KI in der täglichen Anwendung achten können, um nicht selbst gegen Menschenrechte zu verstossen:
1. Gehe sorgfältig mit Daten um und sei dir deren Auswirkungen bewusst:
- Datenschutz: Gib keine personenbezogenen, vertraulichen oder sensiblen Informationen in ein KI-System ein.
- Eigentumsrechte: Imitiere keine Personen oder Stilrichtungen.
- Diskriminierung: Achte darauf, KI-Systeme inklusiv zu nutzen und das Ergebnis auf unterschiedlichen Perspektiven kritisch zu hinterfragen.
2. Sei transparent: Kennzeichne wenn möglich die Ergebnisse, z.B. mit «mit Unterstützung von KI generiert» oder «mit KI generiert». Dies ist für andere für die Einordnung und Weiterverwendung wichtig.
3. Achte auf die ökologische Nachhaltigkeit: Prüfe, ob der Einsatz energie-günstiger durchgeführt werden kann. Eine generative KI-Anfrage verbraucht beispielsweise im Schnitt 10-mal mehr Energie als eine Suchmaschine-Anfrage.
4. Führe Gespräche und bilde dich aktiv weiter: KI ist eine sich schnell entwickelnde Technologie. Konsultiere digital zivilgesellschaftliche Organisationen wie beispielsweise die Alliance Digitale.9
Fachpersonen der Sozialen Arbeit benötigen KI-Kompetenz im Umgang und Wissen, welches Tool an welcher Stelle einen Mehrwert bringt respektive wo die menschliche Intelligenz die passende ist. Dafür braucht es ein Basis-Verständnis für die KI-Technologie. Generell ist wichtig: Offenheit für neue Methoden, kritisches Denken und Diskursfähigkeit.
1 AvenirSocial (2010): Berufskodex Soziale Arbeit.
2 Vereinte Nationen (1948). Allgemeine Erklärung der Menschenrechte.
3 Europäisches Parlament ( 2020): Was ist künstliche Intelligenz und wie wird sie genutzt?
4 EU Artificial Intelligence Act (2024). High-level summary of the AI Act.
5 BAKOM (2025). Künstliche Intelligenz - Auslegeordnung und Regulierungsansatz der Schweiz.
6 Beispiele für Labels in der Schweiz: Digital Trust Label und Data Fairness Label.
7 Ethische Prinzipien und Empfehlungen von der UNO (2021), OECD (2019) oder EU (2023).
8 Powernewz - Das Magazin für eine nachhaltige Enegiezukunft

Michelle Meier
Bildungsverantwortliche bei Amnesty International Schweiz
(mit Unterstützung bei technologiebasierten Fragen durch Roman Küpper).

Nathalie Klauser
Digitalethik-Expertin, Gründerin Intersections
Nathalie Klauser | LinkedIn
Autor*in

Sabine Muff
Produktmanagement Digitalisierung
E-Mail: sabine.muff@sozialinfo.ch