Verantwortungsvolle künstliche Intelligenz (KI) ist eine Reihe von Grundsätzen, die bei der Gestaltung, Entwicklung, Bereitstellung und Nutzung von KI helfen und Vertrauen in KI-Lösungen schaffen, die das Potenzial haben, Unternehmen und ihre Stakeholder zu stärken. Verantwortungsvolle KI befasst sich mit den breiteren gesellschaftlichen Auswirkungen von KI-Systemen und den Maßnahmen, die erforderlich sind, um diese Technologien mit den Werten der Stakeholder, rechtlichen Standards und ethischen Grundsätzen in Einklang zu bringen. Verantwortungsvolle KI strebt danach, solche ethischen Grundsätze in KI-Anwendungen und -Workflows einfließen zu lassen, um Risiken und negative Folgen im Zusammenhang mit der Nutzung von KI zu minimieren und gleichzeitig positive Ergebnisse zu maximieren.
Dieser Artikel soll einen allgemeinen Überblick über verantwortungsvolle KI geben. Um mehr über die spezifische Sichtweise von IBM zu erfahren, besuchen Sie unsere KI-Ethikseite.
Die weit verbreitete Einführung des maschinellen Lernens in den 2010er Jahren, die durch Fortschritte bei Big Data und Rechenleistung vorangetrieben wurde, brachte neue ethische Herausforderungen (z. B. Verzerrung, Transparenz und die Verwendung personenbezogener Daten) mit sich. Die KI-Ethik entwickelte sich in dieser Zeit zu einer eigenständigen Disziplin, da Technologieunternehmen und KI-Forschungseinrichtungen versuchten, ihre KI-Bemühungen proaktiv und verantwortungsbewusst zu gestalten.
Laut einer Studie von Accenture „vertrauen nur 35 % der Verbraucher weltweit darauf, dass Unternehmen KI-Technologie auf verantwortungsvolle Weise einsetzen. Und 77 % sind der Meinung, dass Unternehmen für den Missbrauch von KI zur Rechenschaft gezogen werden müssen.“1 In dieser Atmosphäre werden KI-Entwickler ermutigt, ihre Bemühungen durch ein starkes und konsistentes ethisches KI-Framework zu leiten.
Dies gilt insbesondere für die neuen Typen generativer KI, die jetzt von Unternehmen schnell eingesetzt werden. Verantwortungsvolle KI-Prinzipien können Anwendern dabei helfen, das volle Potenzial dieser Tools auszuschöpfen und gleichzeitig unerwünschte Ergebnisse zu minimieren.
KI muss vertrauenswürdig sein, und damit Stakeholder KI vertrauen können, muss sie transparent sein. Technologieunternehmen müssen klar darlegen, wer ihre KI-Systeme trainiert, welche Daten für das Training verwendet wurden und vor allem, was in die Empfehlungen ihrer Algorithmen eingeflossen ist. Wenn wir KI nutzen wollen, um wichtige Entscheidungen zu treffen, muss sie erklärbar sein.
IBM hat ein Framework entwickelt, um diese Prinzipien zu verdeutlichen. Schauen wir uns die Eigenschaften an, die die „Säulen des Vertrauens“ bilden. Zusammen beantworten diese Eigenschaften die Frage: „Was wäre nötig, um dem Ergebnis eines KI-Modells zu vertrauen?“ Vertrauenswürdige KI ist für IBM ein strategischer und ethischer Imperativ, aber diese Säulen können von jedem Unternehmen als Leitfaden für seine KI-Bemühungen genutzt werden.
Modelle für maschinelles Lernen wie tiefe neuronale Netze erreichen bei verschiedenen Aufgaben eine beeindruckende Genauigkeit. Aber Erklärbarkeit und Interpretierbarkeit sind für die Entwicklung einer vertrauenswürdigen KI immer wichtiger. Der Ansatz von IBM zur Erklärbarkeit basiert auf drei Prinzipien.
Genauigkeit ist ein wesentlicher Faktor dafür, wie erfolgreich der Einsatz von KI im täglichen Betrieb ist. Durch die Durchführung von Simulationen und den Vergleich der XAI-Ausgabe mit den Ergebnissen im Trainingsdatensatz kann die Vorhersagegenauigkeit bestimmt werden. Die am häufigsten hierfür verwendete Technik ist Local Interpretable Model-Agnostic Explanations (LIME), die die Vorhersage von Klassifikatoren durch den ML-Algorithmus erklärt.
Die Rückverfolgbarkeit ist eine Eigenschaft der KI, die angibt, ob sie es Benutzern ermöglicht, ihre Vorhersagen und Prozesse zu verfolgen. Es beinhaltet die Dokumentation von Daten und wie sie von Modellen verarbeitet werden. Die Rückverfolgbarkeit ist eine weitere wichtige Technik, um Erklärbarkeit zu erreichen. Sie wird beispielsweise durch die Einschränkung der Art und Weise, wie Entscheidungen getroffen werden können, und die Festlegung eines engeren Rahmens für Regeln und Funktionen des maschinellen Lernens erreicht.
Das ist der menschliche Faktor. Anwender müssen verstehen können, wie und warum KI Schlussfolgerungen ableitet. Dies wird durch kontinuierliche Weiterbildung erreicht.
Modelle des maschinellen Lernens werden zunehmend eingesetzt, um fundierte Entscheidungen zu treffen, die für Menschen von großer Bedeutung sind. Obwohl das maschinelle Lernen von Natur aus eine Form der statistischen Diskriminierung ist, wird diese Diskriminierung dann verwerflich, wenn sie privilegierte Gruppen systematisch begünstigt und bestimmte nicht privilegierte Gruppen systematisch benachteiligt, was zu vielfältigen Schäden führen kann. Verzerrungen in Trainingsdaten, die entweder auf Vorurteile bei der Kennzeichnung oder auf Unter-/Übererfassung zurückzuführen sind, führen zu Modellen mit unerwünschter Verzerrung.
Vielfältige und repräsentative Daten
Stellen Sie sicher, dass die für die Erstellung von KI-Modellen verwendeten Trainingsdaten vielfältig und repräsentativ für die Bevölkerung sind, der sie dienen sollen. Berücksichtigen Sie Daten von verschiedenen demografischen Gruppen, um eine Unterrepräsentation oder Verzerrung zu vermeiden. Überprüfen und bewerten Sie regelmäßig die Trainingsdaten auf Verzerrungen. Verwenden Sie Tools und Methoden, um Verzerrungen im Datensatz zu identifizieren und zu korrigieren, bevor Sie das Modell trainieren.
Algorithmen, die Verzerrungen berücksichtigen
Integrieren Sie faire Metriken in den Entwicklungsprozess, um zu bewerten, wie verschiedene Untergruppen von den Vorhersagen des Modells betroffen sind. Überwachen und minimieren Sie Unterschiede in den Ergebnissen zwischen verschiedenen demografischen Gruppen. Wenden Sie Einschränkungen im Algorithmus an, um sicherzustellen, dass das Modell während des Trainings und der Bereitstellung vordefinierte Fairnesskriterien einhält.
Techniken zur Minderung von Verzerrungen
Wenden Sie Techniken wie erneutes Sampling, erneute Gewichtung und kontradiktorisches Training an, um Verzerrungen in den Vorhersagen des Modells zu minimieren.
Vielfältige Entwicklungsteams
Stellen Sie interdisziplinäre und vielfältige Teams zusammen, die an der KI-Entwicklung beteiligt sind. Vielfältige Teams können unterschiedliche Perspektiven einbringen und so dazu beitragen, Vorurteile zu erkennen und zu korrigieren, die von homogenen Teams möglicherweise übersehen werden.
Prüfungsausschüsse für ethische KI
Richten Sie Prüfungsausschüsse oder -komitees ein, um die potenziellen Verzerrungen und ethischen Auswirkungen von KI-Projekten zu bewerten. Diese Gremien können während des gesamten Entwicklungszyklus Orientierungshilfe bei ethischen Überlegungen bieten.
Robuste KI bewältigt effektiv außergewöhnliche Bedingungen, wie z. B. Anomalien bei der Eingabe oder böswillige Angriffe, ohne unbeabsichtigten Schaden zu verursachen. Sie ist außerdem so konzipiert, dass sie vorsätzlichen und unbeabsichtigten Eingriffen standhält, indem sie vor exponierten Schwachstellen schützt. Unsere zunehmende Abhängigkeit von diesen Modellen und der Wert, den sie als Ansammlung vertraulichen und geschützten Wissens darstellen, sind einem zunehmenden Risiko von Angriffen ausgesetzt. Diese Modelle bergen einzigartige Sicherheitsrisiken, die berücksichtigt und gemindert werden müssen.
Benutzer müssen in der Lage sein, die Funktionsweise eines KI-Dienstes zu erkennen, seine Funktionalität zu bewerten und seine Stärken und Grenzen zu verstehen. Eine erhöhte Transparenz bietet Informationen für KI-Nutzer, damit sie besser verstehen, wie das KI-Modell oder der KI-Dienst erstellt wurde. Dies hilft dem Benutzer des Modells festzustellen, ob es für einen bestimmten Anwendungsfall geeignet ist, oder zu bewerten, wie eine KI zu ungenauen oder verzerrten Schlussfolgerungen gelangt ist.
Viele regulatorische Frameworks – einschließlich der DSGVO – schreiben vor, dass Unternehmen bei der Verarbeitung personenbezogener Daten bestimmte Datenschutzgrundsätze einhalten müssen. Ein böswilliger Dritter mit Zugriff auf ein trainiertes ML-Modell kann, selbst ohne Zugriff auf die Trainingsdaten selbst, sensible personenbezogene Daten über die Personen offenlegen, deren Daten zum Trainieren des Modells verwendet wurden. Es ist von entscheidender Bedeutung, KI-Modelle, die möglicherweise personenbezogene Daten enthalten, schützen zu können und zu kontrollieren, welche Daten überhaupt in das Modell einfließen.
Die Implementierung verantwortungsvoller KI-Praktiken auf Unternehmensebene erfordert einen ganzheitlichen, umfassenden Ansatz, der verschiedene Phasen der KI-Entwicklung und -Bereitstellung abdeckt.
Entwickeln Sie eine Reihe verantwortungsvoller KI-Prinzipien, die mit den Werten und Zielen des Unternehmens übereinstimmen. Berücksichtigen Sie die oben in den „Säulen des Vertrauens“ beschriebenen Schlüsselaspekte. Solche Grundsätze können von einem engagierten, bereichsübergreifenden KI-Ethikteam entwickelt und aufrechterhalten werden, das aus Vertretern verschiedener Abteilungen besteht – darunter KI-Spezialisten, Ethiker, Rechtsexperten und Führungskräfte.
Führen Sie Schulungsprogramme durch, um Mitarbeiter, Stakeholder und Entscheidungsträger über verantwortungsvolle KI-Praktiken aufzuklären. Dazu gehört auch das Verständnis potenzieller Vorurteile, ethischer Überlegungen und der Bedeutung der Integration verantwortungsvoller KI in den Geschäftsbetrieb.
Integrieren Sie verantwortungsvolle KI-Praktiken in die gesamte KI-Entwicklungspipeline – von der Datenerfassung und dem Modelltraining bis hin zur Bereitstellung und laufenden Überwachung. Verwenden Sie Techniken, um Verzerrungen in KI-Systemen zu erkennen und mindern. Bewerten Sie Modelle regelmäßig auf Fairness, insbesondere in Bezug auf sensible Merkmale wie Rasse, Geschlecht oder sozioökonomischen Status. Setzen Sie auf Transparenz, indem Sie KI-Systeme erklärbar machen. Stellen Sie eindeutige Unterlagen über Datenquellen, Algorithmen und Entscheidungsprozesse bereit. Nutzer und Stakeholder sollten in der Lage sein, zu verstehen, wie KI-Systeme Entscheidungen treffen.
Etablieren Sie strenge Daten- und KI-Governance-Praktiken und -Schutzmaßnahmen, um die Privatsphäre der Endnutzer und sensible Daten zu schützen. Kommunizieren Sie die Richtlinien zur Datennutzung klar und deutlich, holen Sie eine Einverständniserklärung ein und halten Sie die Datenschutzbestimmungen ein.
Integrieren Sie Mechanismen für die menschliche Kontrolle in kritische Entscheidungsprozesse. Definieren Sie klare Verantwortungsbereiche, um sicherzustellen, dass die verantwortlichen Parteien identifiziert werden und für die Ergebnisse von KI-Systemen zur Verantwortung gezogen werden können. Führen Sie eine fortlaufende Überwachung von KI-Systemen ein, um ethische Bedenken, Verzerrungen oder Probleme, die im Laufe der Zeit auftreten können, zu erkennen und zu beheben. Überprüfen Sie KI-Modelle regelmäßig, um die Einhaltung ethischer Richtlinien zu bewerten.
Fördern Sie die Zusammenarbeit mit externen Unternehmen, Forschungseinrichtungen und Open-Source-Gruppen, die an verantwortungsvoller KI arbeiten. Bleiben Sie über die neuesten Entwicklungen bei verantwortungsvollen KI-Praktiken und -Initiativen auf dem Laufenden und tragen Sie zu branchenweiten Bemühungen bei.
Erfahren Sie, wie sich das EU-Gesetz zur KI auf die Wirtschaft auswirken wird, wie Sie sich vorbereiten, wie Sie Risiken mindern können und wie Sie Regulierung und Innovation in Einklang bringen.
Erfahren Sie mehr über die neuen Herausforderungen der generativen KI, die Notwendigkeit der Steuerung von KI- und ML-Modellen und die Schritte zum Aufbau eines vertrauenswürdigen, transparenten und erklärbaren KI-Frameworks.
Erfahren Sie, wie Sie mit einem Portfolio von KI-Produkten für generative KI-Modelle ethische und gesetzeskonforme Praktiken fördern.
Gewinnen Sie mit watsonx.governance ein tieferes Verständnis dafür, wie Sie Fairness gewährleisten, Drifts verwalten, die Qualität aufrechterhalten und die Erklärbarkeit verbessern können.
Verwalten Sie generative KI-Modelle ortsunabhängig und stellen Sie diese in der Cloud oder lokal mit IBM watsonx.governance bereit.
Bereiten Sie sich auf das EU-Gesetz zur KI vor und etablieren Sie mithilfe von IBM Consulting einen verantwortungsvollen KI-Governance-Ansatz.
Vereinfachen Sie die Verwaltung von Risiken und die Einhaltung gesetzlicher Vorschriften mit einer einheitlichen GRC-Plattform.
1 Vision Technologie 2022, Accenture, 2022.
IBM web domains
ibm.com, ibm.org, ibm-zcouncil.com, insights-on-business.com, jazz.net, mobilebusinessinsights.com, promontory.com, proveit.com, ptech.org, s81c.com, securityintelligence.com, skillsbuild.org, softlayer.com, storagecommunity.org, think-exchange.com, thoughtsoncloud.com, alphaevents.webcasts.com, ibm-cloud.github.io, ibmbigdatahub.com, bluemix.net, mybluemix.net, ibm.net, ibmcloud.com, galasa.dev, blueworkslive.com, swiss-quantum.ch, blueworkslive.com, cloudant.com, ibm.ie, ibm.fr, ibm.com.br, ibm.co, ibm.ca, community.watsonanalytics.com, datapower.com, skills.yourlearning.ibm.com, bluewolf.com, carbondesignsystem.com