Künstliche Intelligenz bietet viele neue Möglichkeiten und Vorteile, kann aber auch zu Missbrauch führen. Gesetzgeber und Industrie arbeiten deshalb an Richtlinien für Responsible AI, die einen verantwortungsvollen Umgang mit KI-Technologien sicherstellen sollen.
Die Art und Weise, wie KI in den vergangenen Jahren entwickelt und verwendet wurde, hat in einigen Fällen zu Benachteiligung, Diskriminierung und Menschenrechtsverletzungen geführt. Deshalb fordern nicht nur Menschenrechtsorganisationen eine umfassende Regulierung. Mit dem EU Artificial Intelligence Act (KI-Gesetz) hat die Europäische Union zumindest den ersten Schritt in diese Richtung getan. Das Gesetz teilt KI-Anwendungen in vier Risikoklassen ein: Algorithmen für ethisch inakzeptable Einsatzgebiete wie die Manipulation von Verhalten oder die Kategorisierung von Menschen anhand von Persönlichkeitsmerkmalen und Sozialverhalten werden verboten, Systeme zur biometrischen Identifikation, Sicherheitskomponenten kritischer Infrastrukturen sowie KI-Anwendungen in den Bereichen Bildung, Arbeit, Zugang zu Dienstleistungen, Strafverfolgung, Migrations-, Asyl- und Grenzkontrolle sowie Rechtspflege und demokratische Prozesse werden als Hochrisiko-KI relativ streng reguliert. Anbieter müssen unter anderem ein Risikomanagementsystem über den gesamten Lebenszyklus einer KI-Lösung hinweg einrichten, sicherstellen, dass ihre Schulungs-, Validierungs- und Testdatensätze möglichst unvoreingenommen, repräsentativ, fehlerfrei und vollständig sind, sowie technische Dokumente und Bedienungsanleitungen bereitstellen. Für KI-Systeme mit begrenztem Risiko sowie für Anbieter von Allzweck-KI-Systemen (General Purpose AI, GPAI) gelten deutlich geringere Anforderungen und KI-Systeme mit dem geringsten Risikoprofil wie Videospiele oder Spam-Filter bleiben unreguliert. Amnesty International und andere Bürgerrechtsorganisationen bemängeln allerdings die vielen Ausnahmen und die schwache Regulierung von Allzweck-KI-Systemen.
Auch in den USA wird an der Regulierung von KI gearbeitet. Der 2022 vorgelegte Blueprint for an AI Bill of Rights soll dafür die Grundlagen schaffen. Der Blueprint formuliert vier Anforderungen an KI-Lösungen: Sie müssen sicher und effektiv sein, sie dürfen nicht diskriminieren, sie müssen die Privatsphäre und die persönlichen Daten der Betroffenen schützen und sie müssen erklärbar sein. Außerdem soll den Anwendern immer eine Alternative zur KI-Nutzung angeboten werden. Bei Problemen mit der KI müssen sie zudem unkompliziert einen menschlichen Ansprechpartner erreichen können.
Wie sich Unternehmen auf die neue Gesetzgebung vorbereiten können
Organisationen, die KI-Systemen entwickeln oder einsetzen, sollten sich schon jetzt auf die kommenden Vorgaben vorbereiten. Die Strategieberatung PwC empfiehlt ein strategisches Vorgehen in vier Schritten:
1. Folgenabschätzung: Es ist zu prüfen, ob die KI-Systeme überhaupt von der Regulierung betroffen sind. Eine Einschätzung ermöglicht der EU AI Act Compliance Checker.
2. Identifikation der regulatorischen Defizite und Entwicklung einer Compliance-Strategie: Im zweiten Schritt sollten Unternehmen die Bereiche identifizieren, die angepasst werden müssen, die notwendigen Anpassungen priorisieren und eine Roadmap für deren Umsetzung entwickeln.
3. Optimierung von Prozessen und Organisationsstruktur: Organisationen müssen klare Zuständigkeiten definieren, einen Verhaltenskodex für KI-Governance, Compliance und Risikomanagement entwickeln und Mitarbeiter entsprechend schulen, um eine Einhaltung der Vorschriften über den gesamten KI-Lebenszyklus hinweg zu gewährleisten.
4. Umsetzung der Maßnahmen und fortlaufende Anpassungen: Nach der Umsetzung der definierten Maßnahmen sollten diese regelmäßig bewertet und an neue Entwicklungen sowohl technischer als regulatorischer Art angepasst werden.
Viele Unternehmen dürften allerdings mit der selbständigen Entwicklung und Umsetzung eines entsprechenden Compliance-Managementsystems überfordert sein. Es empfiehlt sich daher, mit Partnern wie Intel zusammenzuarbeiten, die über das notwendige technische und regulatorische Know-how verfügen und große Erfahrung im Management von Change-Prozessen besitzen. Dank seiner jahrzehntelangen Erfahrung in der IT-Sicherheit und der daraus resultierenden engen Zusammenarbeit mit dem Ökosystem sowie seiner führenden Rolle bei Confidential Computing und KI kann der Hersteller Firmen bei der Umsetzung der Vorgaben und der Einhaltung der neuen EU-Richtlinien wertvolle Unterstützung bieten.
So kann der verantwortungsvolle Einsatz von KI gelingen
Die IT-Industrie selbst hat eine Reihe von Responsible-AI-Initiativen ins Leben gerufen, die einen verantwortungsvollen Umgang mit KI sicherstellen sollen. MLCommons, ein Zusammenschluss von mehr als 125 Organisationen, beschäftigt sich beispielsweise in der Arbeitsgruppe AI Safety mit dem Aufbau einer Benchmarking-Suite für Responsible AI. Ein erster Proof of Concept (Version 0.5) konzentriert sich auf die Messung der Sicherheit in großen Sprachmodellen (Large Language Models, LLM) wie ChatGPT und soll die Antworten der Systeme auf Anfragen (Prompt) verschiedener Risikokategorien bewerten.
Die Themen Vertrauen und Sicherheit spielen auch in der AI Alliance eine wichtige Rolle. In ihr haben sich Technologieunternehmen, Start-ups, Universitäten, Forschungseinrichtungen, Regierungsorganisationen und gemeinnützige Stiftungen zusammengeschlossen, um einen offenen, sicheren und verantwortungsvollen Zugang zu KI zu schaffen. Die gemeinnützige Organisation Partnership on AI (PAI) hat das Ziel, wissenschaftliche Institute, Zivilgesellschaft, Industrie und Medienvertreter zusammenzubringen, um die Entwicklung fairer KI-Lösungen zu fördern. Ähnliche Absichten verfolgt die Strategie- und Managementberatung Article One mit ihrem Business Roundtable Human Rights & AI. Vertreter von Industrie, Anwenderunternehmen und Menschenrechtsorganisationen treffen sich zweimal im Jahr am Runden Tisch, um die aktuellsten und wichtigsten Fragen rund um KI und Menschenrechte zu diskutieren.
Intel engagiert sich in allen diesen Organisationen und Initiativen und hat bereits 2017 ein eigenes Responsible-AI-Programm entwickelt. Der Hersteller verpflichtet sich darin, KI-Anwendungen über ihren gesamten Lebenszyklus hinweg einem strengen, multidisziplinären Prüfverfahren zu unterziehen. Dabei sollen Prinzipien wie die Respektierung der Menschenrechte, Transparenz und Erklärbarkeit, Sicherheit und Zuverlässigkeit, Datenschutz, Gleichberechtigung und Integration sowie Umweltschutz Berücksichtigung finden. Im Intel Center of Excellence on Responsible Human-AI Systems (RESUMAIS) arbeiten Forschungseinrichtungen wie das European Laboratory for Learning and Intelligent Systems (ELLIS), das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI), das Forschungszentrum Informatik (FZI) und die Leibniz Universität Hannover zusammen, um die Entwicklung ethischer KI-Anwendungen voranzutreiben. Im Mittelpunkt der Forschung stehen Themen wie Fairness, Zusammenarbeit zwischen Mensch und KI, Verantwortlichkeit und Transparenz.
Fazit: Verantwortung und Innovation müssen keine Gegensätze sein
KI hält Einzug in immer mehr Geschäftsprozesse und Lebensbereiche. Es wäre naiv zu glauben, diese Entwicklung ließe sich aufhalten. Mit dem zunehmenden Einsatz wird ein verantwortungsvoller Umgang mit der innovativen Technologie immer wichtiger. Ethische Grundsätze, Fairness und Menschenrechte müssen bei der Entwicklung und bei der Nutzung von KI-Systemen stets berücksichtigt werden.
Dabei spielen Technologieansätze wie Privacy by Design und Security by Design eine wichtige Rolle. Mit Confidential Computing lassen sich beispielsweise sensible Daten bereits auf Hardwareebene wirksam vor unberechtigtem Zugriff und Missbrauch schützen (siehe dazu auch „KI und Datenschutz müssen kein Widerspruch sein!“). Verteiltes Lernen („Federated Learning – was es wirklich bringt“) über Organisations- und Ländergrenzen hinweg stellt sicher, dass Algorithmen mit vielfältigen und diversen Daten trainiert werden - eine wichtige Voraussetzung, um Diskriminierung und Voreingenommenheit von KI-Systemen zu verhindern. Vor allem aber darf KI nicht blind vertraut werden. Künstliche Intelligenz ist genauso fehlbar wie die Menschen, die sie entwickeln und trainieren. Von Algorithmen bewertete oder klassifizierte Personen müssen deshalb immer die Möglichkeit erhalten, die Entscheidungen der KI anzufechten.