Sokratisches Gespräch
Socratic Dialogue
Im "sokratischen Gespräch" arbeiten wir mit einer zentralen Leitfrage, die aus dem Alltag Ihrer Organisation stammt – etwa: Was bedeutet Fairness beim Einsatz von KI in der Personalauswahl? oder Wann wird Überwachung unzumutbar? Das Gespräch folgt einer klaren Struktur aus Fragen, Begründungen und Gegenbeispielen. Ziel ist kein bloßer Kompromiss, sondern eine gemeinsam erarbeitete, begründete Position. Das Verfahren eignet sich besonders, wenn es um Werte geht, die im konkreten Handeln Gestalt annehmen sollen. Es fördert begriffliche Klarheit, Urteilsfähigkeit und die Fähigkeit, ethische Argumente argumentativ zu prüfen.
In the "Socratic dialogue", we work with a guiding question drawn from your organization’s daily practice – for example: What does fairness mean in AI‑assisted recruitment? or When does monitoring become unacceptable? The dialogue follows a clear structure of inquiry, justification and counterexamples. The aim is not compromise, but a jointly reasoned position. This method is particularly effective when values need to be examined in their practical application. It fosters conceptual clarity, critical reasoning and the ability to test ethical arguments in dialogue.
Fallbasierte Ethikanalyse
Case‑Based Ethical Analysis
Die fallbasierte Ethikanalyse übersetzt ethische Prinzipien in praktisches Entscheiden. Ausgangspunkt ist ein konkreter oder geplanter Anwendungsfall – etwa ein Algorithmus für Bewerbungsrankings oder eine automatisierte Kundenkommunikation. Schrittweise werden die beteiligten Interessen, Risiken und Handlungsmöglichkeiten untersucht und entlang von Prinzipien wie Fairness, Wohltun, Autonomie und Transparenz bewertet. Das Ergebnis ist eine nachvollziehbar begründete Empfehlung, die sowohl ethisch tragfähig als auch organisatorisch umsetzbar ist.
Case‑based ethical analysis translates ethical principles into practical decision‑making. It begins with a concrete or planned AI use case – for example, a ranking algorithm for recruitment or automated customer communications. Step by step, the relevant interests, risks and courses of action are examined and assessed using principles such as fairness, beneficence, autonomy and transparency. The outcome is a reasoned recommendation that is both ethically robust and organizationally feasible.
Stakeholder‑Dialog
Stakeholder Dialogue
Der Stakeholder‑Dialog bringt unterschiedliche Perspektiven auf den Einsatz von KI zusammen. Mitarbeitende, Betroffene, Fachabteilungen oder externe Partner reflektieren gemeinsam Erwartungen, Zumutbarkeiten und mögliche Nebenfolgen. Das moderierte Gespräch schafft Raum für Spannungsthemen – etwa zwischen Effizienz und Gerechtigkeit oder zwischen Innovation und Kontrolle. Ziel ist nicht ein Konsens um jeden Preis, sondern das Sichtbarmachen der legitimen Interessen, die eine organisationale Verantwortung strukturieren. So entsteht ein tragfähiger Rahmen für Entscheidungen und Kommunikation.
The stakeholder dialogue brings together diverse perspectives on the use of AI. Employees, affected persons, departments and external partners jointly explore expectations, tolerances and possible side effects. The facilitated conversation creates space for tensions – for instance between efficiency and justice, or innovation and oversight. The aim is not consensus at any cost, but visibility of the legitimate interests that shape organizational responsibility. This process builds a durable framework for decision‑making and communication.
Werte‑ und Leitbildarbeit
Values & Principles Workshops
Werte‑ und Leitbildarbeit verbindet die normativen Grundlagen einer Organisation mit den praktischen Anforderungen des KI‑Einsatzes. In diesem Format werden bestehende Unternehmenswerte – wie Vertrauen, Verantwortung oder Integrität – auf ihre Bedeutung im KI‑Kontext befragt. Daraus entstehen ethische Leitlinien, die zeigen, wie abstrakte Werte in konkretes Handeln überführt werden können. Gleichzeitig erfolgt ein Abgleich mit regulatorischen Anforderungen wie Datenschutz oder AI Act. Das Ergebnis sind klare Orientierungen, die im Alltag tatsächlich anwendbar sind.
Values and principles workshops connect an organization’s normative foundations with the practical challenges of AI deployment. Existing corporate values – such as trust, accountability or integrity – are examined for their relevance in the context of AI. From this reflection emerge ethical guidelines that translate abstract ideals into concrete action. In parallel, these principles are aligned with regulatory frameworks such as data protection and the AI Act. The outcome is a set of clear, operational guidelines that can be applied in day‑to‑day practice.
Governance‑Design
Governance Design
Governance‑Design bedeutet, ethische Anforderungen in Strukturen, Rollen und Prozesse zu übersetzen. Statt ethische Leitlinien als bloße Absichtserklärung zu formulieren, werden Zuständigkeiten, Prüfmechanismen und Entscheidungswege entwickelt, die Verantwortung im KI‑Lebenszyklus absichern – von der Idee bis zur Nachkontrolle. Das Format verbindet konzeptionelle Arbeit mit organisatorischer Praxis und schafft die Grundlage für nachvollziehbare, wiederholbare und überprüfbare Entscheidungen.
Governance design means translating ethical requirements into structures, roles and processes. Rather than treating ethical guidelines as statements of intent, this method develops responsibilities, review mechanisms and decision paths that secure accountability throughout the AI lifecycle – from initial idea to post‑deployment monitoring. It combines conceptual reflection with organizational pragmatism and provides a foundation for consistent, auditable and transparent decision‑making.
Training & Reflexion
Training & Reflection
Training und Reflexion vermitteln Grundlagen ethisch betriebener KI und übersetzen sie in konkrete Alltagssituationen. In diesen Formaten werden Theorie und Praxis ausdrücklich verbunden: kurze Impulse, gemeinsame Übungen und Fallbeispiele fördern die Fähigkeit, ethische Risiken zu erkennen und Handlungsspielräume bewusst zu gestalten. Das Ziel ist nicht moralisierende Belehrung, sondern Selbstvertrauen im Umgang mit normativen Unsicherheiten. Teams entwickeln so Routinen, die Verantwortung in ihre tägliche Arbeit integrieren.
Training and reflection introduce the foundations of ethically operated AI and apply them to real‑world contexts. These formats explicitly connect theory and practice: concise inputs, practical exercises and realistic scenarios strengthen the ability to recognize ethical risks and handle uncertainty responsibly. The aim is not moral instruction, but empowerment – helping teams build routines that embed ethical awareness into everyday work.