Für kleine und große Unternehmen ist künstliche Intelligenz (KI) mit verschiedenen spannenden Begriffen wie Innovation, Chancen und Wettbewerbsvorteil verbunden. Aber es gibt noch ein weiteres Wort, das auf dieser Liste stehen muss: Compliance.
Etwa 73 % der Unternehmen nutzen bereits analytische und generative KI, und 72 % der erfolgreichsten CEOs sagen, dass der Wettbewerbsvorteil davon abhängt, wer die fortschrittlichste KI einsetzt.1
Dieser Boom bei der Nutzung von KI und ihr aufregendes Potenzial gehen jedoch mit wachsenden Bedenken hinsichtlich der Ethik und Sicherheit von KI-gestützten Technologien einher. Wenn eine fehlerhafte Entwicklung zu voreingenommenen Algorithmen führt, die Diskriminierung aufrechterhalten (z. B. bei Rekrutierung, Strafverfolgung oder finanziellen Entscheidungen), könnten die Folgen schwerwiegend und lang anhaltend sein.
Infolgedessen wägen Unternehmen, Länder und politische Entscheidungsträger KI-Governance ab und legen neue Regeln für die Nutzung und Entwicklung von KI fest. Erfahren Sie, was KI-Compliance ist, warum sie für Unternehmen wichtig ist und welche Schritte Unternehmen unternehmen können, um in einer sich schnell entwickelnden Regulierungslandschaft konform zu bleiben.
KI-Compliance bezieht sich auf die Entscheidungen und Praktiken, die es Unternehmen ermöglichen, die Gesetze und Vorschriften einzuhalten, die den Einsatz von KI-Systemen regeln. Diese Standards umfaDiese Standards umfassen Gesetze, Vorschriften und interne Richtlinien, die dazu beitragen sollen, dass Unternehmen KI-Modelle und ihre Algorithmen verantwortungsvoll entwickeln.
KI-Compliance-Prozesse gehen jedoch über die Erfüllung gesetzlicher Anforderungen hinaus. Es geht auch darum, Vertrauen bei den Stakeholdern aufzubauen und Transparenz und Fairness bei der Entscheidungsfindung zu fördern. Sie sind auch für die Sicherheit unerlässlich. Da KI von böswilligen Akteuren ausgenutzt werden kann, sind robuste Cybersicherheitsmaßnahmen und Risikomanagementstrategien das Herzstück der KI-Compliance.
KI-Compliance-Prozesse helfen Unternehmen, die mit dem Einsatz von KI-Tools verbundenen finanziellen, rechtlichen und Reputationsrisiken zu vermeiden.
Je mehr Unternehmen KI einsetzen, desto häufiger können Situationen auftreten, in denen die Technologie unerwartete oder fehlerhafte Wendungen nimmt. Ein Unternehmen hat beispielsweise sein KI-Rekrutierungstool aufgegeben, nachdem es festgestellt hatte, dass es aufgrund der für die Schulung verwendeten Materialien die Geschlechterdiskriminierung aufrechterhielt.2 Und Untersuchungen haben ergeben, dass einige algorithmengesteuerte Kreditanträge zur Diskriminierung von Bewerbern mit dunkler Hautfarbe führen können.3
Die Bedenken in Bezug auf diese Probleme führen zu einer Welle von Bemühungen, die Entwicklung und Nutzung von KI durch Unternehmen zu standardisieren. Im Jahr 2024 führte die Europäische Union mit dem EU-KI-Gesetz als erster großer Markt Regeln für KI ein. Andere Gerichtsbarkeiten, darunter die Vereinigten Staaten und China, entwickeln ebenfalls ihre eigenen KI-Vorschriften.
Nichtkonformität kann teuer sein. Gemäß der Datenschutz-Grundverordnung (DSGVO) der EU können Unternehmen mit Geldbußen von bis zu 20 Millionen Euro oder 4 % ihres weltweiten Jahresumsatzes belegt werden, je nachdem, welcher Betrag höher ist. In den Vereinigten Staaten kann die Federal Trade Commission (FTC) Durchsetzungsmaßnahmen gegen Unternehmen ergreifen, die gegen KI-bezogene Vorschriften verstoßen, wie z. B. die Verwendung voreingenommener Algorithmen für maschinelles Lernen.4
Compliance ist auch für den Schutz der Markenreputation von entscheidender Bedeutung. Eine Umfrage von KPMG aus dem Jahr 2024 ergab, dass 78 % der Verbraucher der Meinung sind, dass Unternehmen, die KI einsetzen, dafür verantwortlich sind, sicherzustellen, dass die Entwicklung ethisch vertretbar ist.5 Andernfalls kann dies zu einem Verlust von Geschäft und Verbrauchervertrauen führen.
Indem sie dazu beitragen, dass KI-Systeme zuverlässig, transparent und nachvollziehbar sind, können Unternehmen Innovationen vorantreiben, die Effizienz steigern und sich einen Wettbewerbsvorteil auf dem Markt verschaffen.
Wenn es bei der Compliance nur darum ginge, eine Reihe klarer Anforderungen zu erfüllen, wäre der Weg nach vorn einfach. Doch so schnell wie sich KI-Technologien weiterentwickeln, so schnell entwickeln sich auch die verschiedenen Richtlinien, die sie regeln sollen.
Die Technologie selbst erschwert die Compliance-Aktivitäten. Das Verständnis und die Interpretation von KI-Modellen und -Algorithmen kann technisch anspruchsvoll sein, insbesondere weil viele KI-Systeme in Echtzeit arbeiten. Es kann schwierig sein, mit den sich ständig weiterentwickelnden Vorschriften Schritt zu halten, und die schnelle Weiterentwicklung der KI erfordert von Unternehmen, ihre Compliance-Programme ständig anzupassen.
Länder sind dabei, KI-Standards zu erlassen, die die Art und Weise, wie die Technologie weltweit reguliert wird, neu gestalten könnten. Zusätzlich zu diesen KI-spezifischen Gesetzen und Vorschriften müssen Unternehmen und KI-Anbieter auch ein wachsendes Netz von Regeln in Bezug auf Datenschutz, Diskriminierung und Cybersicherheit einhalten. Um die Sache noch komplizierter zu machen, gelten diese Anforderungen manchmal nicht nur für Unternehmen und KI-Anbieter, die in ihrer spezifischen Region tätig sind, sondern auch für alle, die in der Region Geschäfte tätigen.
Zu den wichtigsten Themen und Vorschriften gehören:
Die europäische DSGVO legt spezifische Standards für den Datenschutz, die Datenanalyse und die Nutzung personenbezogener Daten fest. Das EU-KI-Gesetz, der als weltweit erster umfassender Rechtsrahmen für KI gilt, verbietet bestimmte KI-Anwendungen und schreibt für andere Risikomanagement- und Transparenzanforderungen vor. Es verfolgt einen risikobasierten Ansatz zur KI-Regulierung mit strengeren Auflagen für Systeme mit hohem Risiko.
In den In den Vereinigten Staaten gibt es noch keine umfassende Regelung, aber auf Bundes- und Landesebene existieren verschiedene Compliance-Anforderungen. Zum Beispiel legt die Durchführungsverordnung zur Aufrechterhaltung der amerikanischen Führungsrolle in der künstlichen Intelligenz Richtlinien für die Entwicklung und Nutzung von KI fest. Branchenspezifische Gesetze wie der Health Insurance Portability and Accountability Act (HIPAA) oder der Fair Credit Reporting Act (FCRA) können auch für KI gelten.
Im August 2023 führte China spezifische Vorschriften für generative KI ein, die als „Interim Measures for the Management of Generative Artificial Intelligence Services“ bezeichnet werden. Zu diesen Maßnahmen gehören inhaltliche Standards und Regeln für den Datenschutz, die Kennzeichnung und die Lizenzierung generativer KI. China hat auch spezifische Vorschriften, die auf KI-gesteuerte Empfehlungsalgorithmen und Deep-Synthesis-Technologien wie Deepfakes abzielen.
Die KI-Compliance ist zwar in allen Sektoren von entscheidender Bedeutung, aber besonders wichtig in Branchen wie:
Zu den Anwendungsfällen für KI im Gesundheitswesen gehören die Krankheitsdiagnose, die Arzneimittelforschung und die personalisierte Medizin. Die Nichteinhaltung von Vorschriften wie dem United States Health Insurance Portability and Accountability Act (HIPAA), der die Privatsphäre von Patienten schützt, kann zu Geldstrafen oder rechtlichen Konsequenzen führen. Und voreingenommene oder schlecht trainierte Algorithmen können zu Fehldiagnosen oder unzureichenden Behandlungsplänen für Patienten führen.
KI hat viele finanzielle Anwendungen, von der Betrugserkennung und Risikobewertung bis hin zu Maßnahmen zur Bekämpfung der Geldwäsche. Diese KI-Anwendungen müssen jedoch Vorschriften wie dem US-amerikanischen Fair Credit Reporting Act (FCRA) und der EU-Richtlinie Markets in Financial Instruments Directive (MiFID II) entsprechen. Die Bemühungen zur Einhaltung der KI-Richtlinien zielen darauf ab, zu verhindern, dass Algorithmen bei Kreditanträgen und anderen wichtigen Entscheidungen diskriminieren.
HR-Fachleute nutzen zunehmend KI-gestützte Tools für die Automatisierung von Routineaufgaben und zur Optimierung der Lebenslaufprüfung, der Kandidatenbewertung und der Mitarbeiterüberwachung. Wenn die Algorithmen jedoch mit verzerrten oder unzureichenden Daten trainiert werden, können sie zu unfairen und potenziell illegalen Verzerrungen führen. Die Einhaltung von Antidiskriminierungsgesetzen und Datenschutzbestimmungen trägt dazu bei, Transparenz, Fairness und Datenschutz zu gewährleisten.
Unternehmen sind sich zunehmend der Notwendigkeit bewusst, bestehende KI-Vorschriften einzuhalten und sich auf künftige Regeln vorzubereiten. Eine Umfrage unter internationalen Compliance- und Risiko-Experten ergab, dass mehr als die Hälfte der Befragten Bedenken in Bezug auf den Datenschutz, die algorithmische Transparenz und den Missbrauch oder Missverständnisse im Zusammenhang mit künstlicher Intelligenz hatten.6
Eine weitere Studie unter Top-Führungskräften ergab, dass 80 % planen, verstärkt in einen verantwortungsvollen Umgang mit künstlicher Intelligenz zu investieren, um Vertrauen und Zuversicht in ihre Modelle zu schaffen.7 Daher ergreifen viele Unternehmen proaktive Maßnahmen, um die Einhaltung der KI-Vorschriften sicherzustellen.
Einige Unternehmen schaffen Frameworks, die interne Richtlinien, Verfahren und Verantwortlichkeiten für die ethische Entwicklung und Nutzung von KI festlegen. Microsoft hat beispielsweise seinen „Responsible AI Standard“ veröffentlicht, der die Durchführung regelmäßiger Risikobewertungen, die Umsetzung von Datenschutzmaßnahmen und die Priorisierung von Transparenz und Rechenschaftspflicht bei der Entscheidungsfindung umfasst.8 Und die 2023 aktualisierten KI-Grundsätze von Google betonen die Bedeutung von Fairness, Transparenz und Datenschutz bei der KI-Entwicklung.9
Unternehmen arbeiten auch aktiv mit Regulierungsbehörden und Branchenakteuren zusammen, um über regulatorische Änderungen und Compliance-Fragen auf dem Laufenden zu bleiben. Eine IBM-Umfrage unter Führungskräften ergab, dass 74 % planen, sich im Bereich künstliche Intelligenz mit Kollegen auszutauschen oder mit politischen Entscheidungsträgern zusammenzuarbeiten. Diese Bemühungen helfen Unternehmen, sich auf neue Vorschriften vorzubereiten und sich an der Entwicklung künftiger Richtlinien zu beteiligen.
Um die Compliance-Bemühungen zu optimieren, investieren Unternehmen in verschiedene KI-Compliance-Tools und -Technologien. Zum Beispiel können erklärbare KI-Tools (XAI) Unternehmen dabei helfen, Entscheidungen von KI-Modellen zu verstehen und zu interpretieren, während KI-Governance-Portfolios Echtzeit-Überwachungs- und Prüfungsfunktionen bereitstellen können. Governance-Produkte wie IBM® watsonx.governance® bieten Toolkits, um Vorschriften einzuhalten, Risiken zu bewerten und die Modellentwicklung zu verwalten.
Mit den Fortschritten in der KI-Technologie entstehen auch immer mehr Risiken und Herausforderungen im Zusammenhang mit ihrer Nutzung. Der Schlüssel liegt in einem proaktiven Ansatz, d. h. in der Investition in die erforderlichen Ressourcen, Fachkenntnisse und Technologien, um solide KI-Governance-Frameworks zu entwickeln und umzusetzen. Es erfordert auch die Förderung einer Kultur der Transparenz, Rechenschaftspflicht und des Vertrauens in die Entwicklung und Nutzung von KI-Systemen. Die Priorisierung der KI-Compliance hilft Unternehmen, diese Risiken zu minimieren und das volle Potenzial der KI auszuschöpfen.
1 PwC’s 2024 US Responsible AI Survey, PricewaterhouseCoopers, April 2024
2 Amazon scraps secret AI recruiting tool that showed bias against women, Reuters, Oktober 2018
3 The secret bias hidden in mortgage-approval algorithms, Associated Press, August 2021
4 California company settles FTC allegations it deceived consumers about use of facial recognition in photo storage app, Federal Trade Commission, Januar 2021
5 KPMG Generative AI Consumer Trust Survey, KPMG, Januar 2024
6 How can Artificial Intelligence transform risk and compliance?, Moody’s, Februar 2024
7 From AI compliance to competitive advantage: Becoming responsible by design, Accenture, Juni 2022
8 Microsoft’s Responsible AI Standard, Microsoft, Juni 2022
9 Google AI: Our Principles, Google, März 2023
Verwalten Sie generative KI-Modelle von überall aus und stellen Sie diese in der Cloud oder lokal mit IBM watsonx.governance bereit.
Sehen Sie, wie KI-Governance dazu beitragen kann, das Vertrauen Ihrer Mitarbeiter in KI zu stärken, die Einführung und Innovation zu beschleunigen und das Vertrauen der Kunden zu verbessern.
Bereiten Sie sich auf das EU-Gesetz zur KI vor und etablieren Sie mithilfe von IBM Consulting einen verantwortungsvollen KI-Governance-Ansatz.