Startseite Themen KI-Ethik Was ist KI-Ethik?
Erkunden Sie die KI-Ethik-Lösung von IBM Für KI-Updates anmelden
Illustration mit Collage von Cloud-Piktogrammen, Tortendiagramm, Grafikpiktogrammen zu folgenden Themen
Was ist KI-Ethik?

Ethik ist eine Reihe moralischer Grundsätze, die uns helfen, zwischen richtig und falsch zu unterscheiden. KI-Ethik ist ein multidisziplinäres Fachgebiet, das untersucht, wie die positiven Auswirkungen von KI optimiert und gleichzeitig Risiken und negative Folgen reduziert werden können.

Beispiele für ethische Fragen im Zusammenhang mit KI sind Datenverantwortung und Datenschutz, Fairness, Erklärbarkeit, Robustheit, Transparenz, ökologische Nachhaltigkeit, Inklusion, moralische Entscheidungsfreiheit, Wertorientierung, Rechenschaftspflicht, Vertrauen und Technologiemissbrauch. Dieser Artikel soll einen umfassenden Marktüberblick über die KI-Ethik in der heutigen Branche geben. Weitere Informationen zur Sichtweise von IBM finden Sie hier auf unserer Seite zur KI-Ethik.

Mit dem Aufkommen von Big Data haben Unternehmen ihren Fokus verstärkt auf die Förderung der Automatisierung und datengestützten Entscheidungsfindung in ihren Unternehmen gelegt. Obwohl die Absicht in der Regel, wenn auch nicht immer, darin besteht, die Geschäftsergebnisse zu verbessern, erleben Unternehmen bei einigen ihrer KI-Anwendungen unvorhergesehene Konsequenzen, insbesondere aufgrund eines schlechten Forschungsdesigns im Vorfeld und voreingenommener Datensätze.

Da Fälle von unfairen Ergebnissen ans Licht gekommen sind, sind neue Richtlinien entstanden, vor allem aus den Forschungs- und Datenwissenschaftskreisen, um Bedenken hinsichtlich der Ethik von KI auszuräumen. Führende Unternehmen im Bereich der KI haben ebenfalls ein starkes Interesse an der Gestaltung dieser Richtlinien, da sie selbst bereits einige der Folgen zu spüren bekommen haben, die sich aus der Nichteinhaltung ethischer Standards bei ihren Produkten ergeben. Mangelnde Sorgfalt in diesem Bereich kann zu Reputations-, Regulierungs- und Rechtsrisiken führen, die kostspielige Strafen nach sich ziehen. Wie bei allen technologischen Fortschritten überholt die Innovation in neuen, aufstrebenden Bereichen tendenziell die staatliche Regulierung. Da sich in der Regierungsbranche das entsprechende Fachwissen entwickelt, können wir davon ausgehen, dass weitere KI-Protokolle für Unternehmen folgen werden, die es ihnen ermöglichen, Verstöße gegen Menschenrechte und bürgerliche Freiheiten zu vermeiden.

Jetzt verfügbar: watsonx.governance

Beschleunigen Sie verantwortungsvolle, transparente und erklärbare Workflows für generative KI, die auf Drittanbieter-Plattformen erstellt wurde.

Ähnliche Inhalte E-Book

Registrieren Sie sich für das E-Book zu KI-Datenspeichern

Leitfaden

Erfahren Sie, wie Sie die richtigen Datenbanken für Anwendungen, Analysen und generative KI einsetzen.

Festlegung von Grundsätzen für KI-Ethik

Während Regeln und Protokolle entwickelt werden, um den Einsatz von KI zu steuern, hat die akademische Gemeinschaft den Belmont Report (Link befindet sich außerhalb von ibm.com) als Leitfaden für ethische Grundsätze in der experimentellen Forschung und algorithmischen Entwicklung genutzt. Aus dem Belmont Report ergeben sich drei Hauptprinzipien, die als Leitfaden für die Gestaltung von Experimenten und Algorithmen dienen:

  1. Respekt für Personen: Dieses Prinzip erkennt die Autonomie des Einzelnen an und erwartet von Forschern, dass sie Personen mit eingeschränkter Autonomie schützen, was auf eine Vielzahl von Umständen wie Krankheit, geistige Behinderung oder Altersbeschränkungen zurückzuführen sein kann. Dieses Prinzip betrifft in erster Linie die Idee der Einwilligung. Einzelpersonen sollten sich der potenziellen Risiken und Vorteile jedes Experiments, an dem sie teilnehmen, bewusst sein und sie sollten sich jederzeit vor und während des Experiments für eine Teilnahme oder einen Rückzug entscheiden können.
  2. Wohltätigkeit: Dieses Prinzip ist der Ethik im Gesundheitswesen entlehnt, wo Ärzte einen Eid ablegen, „keinen Schaden anzurichten“. Diese Idee lässt sich leicht auf die künstliche Intelligenz übertragen, bei der Algorithmen Verzerrungen in Bezug auf Rasse, Geschlecht, politische Ausrichtung usw. verstärken können, obwohl die Absicht besteht, Gutes zu tun und ein bestimmtes System zu verbessern.
  3. Gerechtigkeit: Dieses Prinzip behandelt Probleme wie Fairness und Gleichberechtigung. Wer sollte von Experimenten und maschinellem Lernen profitieren? Der Belmont Report bietet fünf Möglichkeiten zur Verteilung von Lasten und Nutzen, und zwar durch:
    • Gleicher Anteil
    • Individueller Bedarf
    • Individuelle Leistung
    • Gesellschaftlicher Beitrag
    • Verdienst
Zugehörige Links

IBM AI Ethics

Fünf Schritte zur Implementierung algorithmischer Sicherheitspraktiken

Hauptanliegen der KI heute

Es gibt eine Reihe von Themen, die bei ethischen Gesprächen über KI-Technologien in der realen Welt im Vordergrund stehen. Einige davon sind:

Foundation Models und generative KI

Die Veröffentlichung von ChatGPT im Jahr 2022 markierte einen echten Wendepunkt für künstliche Intelligenz. Die Fähigkeiten des Chatbots von OpenAI – vom Schreiben von rechtlichen Unterlagen bis hin zum Debuggen von Code – eröffneten eine neue Konstellation von Möglichkeiten dafür, was KI leisten kann und wie sie in fast allen Branchen eingesetzt werden kann. ChatGPT und ähnliche Tools basieren auf Foundation Models, KI-Modellen, die an eine Vielzahl nachgelagerter Aufgaben angepasst werden können. Foundation Models sind in der Regel groß angelegte generative Modelle, die aus ungekennzeichneten Daten trainiert werden. Dadurch können Foundation Models das Gelernte schnell in einem anderen Kontext anwenden, wodurch sie äußerst anpassungsfähig sind und eine Vielzahl unterschiedlicher Aufgaben ausführen können. Es gibt jedoch viele potenzielle Probleme und ethische Bedenken im Zusammenhang mit Foundation Models, die in der Technologiebranche allgemein anerkannt sind, wie z. B. Voreingenommenheit, Generierung falscher Inhalte, mangelnde Erklärbarkeit, Missbrauch und gesellschaftliche Auswirkungen. Viele dieser Probleme sind für KI im Allgemeinen relevant, gewinnen jedoch angesichts der Leistungsfähigkeit und Verfügbarkeit von Foundation Models an neuer Dringlichkeit.

Technologische Singularität

Obwohl dieses Thema in der Öffentlichkeit viel Aufmerksamkeit erregt, zeigen sich viele Forscher angesichts der Vorstellung, dass KI die menschliche Intelligenz in naher oder unmittelbarer Zukunft übertreffen könnte, unbesorgt. Dies wird auch als Superintelligenz bezeichnet, die Nick Bostrum definiert als „einen Intellekt, der die besten menschlichen Gehirne in praktisch allen Bereichen, einschließlich wissenschaftlicher Kreativität, allgemeiner Weisheit und sozialer Fähigkeiten, bei weitem übertrifft“. Obwohl die Entwicklung einer starken KI oder Superintelligenz in unserer Gesellschaft nicht unmittelbar bevorsteht, wirft sie im Hinblick auf den Einsatz autonomer Systeme, wie z. B. selbstfahrender Autos, einige interessante Fragen auf. Es ist unrealistisch zu glauben, dass ein fahrerloses Auto niemals in einen Unfall verwickelt sein wird – aber wer ist bei einem Unfall verantwortlich und haftbar? Sollten wir weiterhin autonome Fahrzeuge anstreben oder die Integration dieser Technologie auf halbautonome Fahrzeuge beschränken, die die Sicherheit der Fahrer erhöhen? Darüber ist man sich noch nicht einig, aber im Zuge der Entwicklung neuer, innovativer KI-Technologien kommen derartige ethische Debatten immer wieder auf.

Auswirkungen von KI auf Arbeitsplätze

In der öffentlichen Wahrnehmung der künstlichen Intelligenz geht es häufig um den Verlust von Arbeitsplätzen, aber diese Bedenken sollten besser anders formuliert werden. Mit jeder bahnbrechenden, neuen Technologie verschiebt sich die Marktnachfrage nach bestimmten Tätigkeitsbereichen. In der Automobilindustrie beispielsweise konzentrieren sich viele Hersteller, wie etwa GM, auf die Produktion von Elektrofahrzeugen, um grüne Initiativen zu unterstützen. Die Energiewirtschaft löst sich dadurch jedoch nicht einfach in Luft auf. Es findet lediglich eine Umstellung von brennstoff- zu elektrobasierten Technologien statt. Künstliche Intelligenz sollte auf ähnliche Weise betrachtet werden, wobei künstliche Intelligenz die Nachfrage nach Arbeitsplätzen in andere Bereiche verlagern wird. Man braucht Mitarbeiter, die bei der Verwaltung dieser Systeme helfen, da die Datenmengen täglich wachsen und sich ändern. In Branchen, die am ehesten von einer Verlagerung der Arbeitsplatznachfrage betroffen sind, wie z. B. im Kundenservice, werden weiterhin Ressourcen benötigt, um komplexere Probleme anzugehen. Der wichtige Aspekt der künstlichen Intelligenz und ihrer Auswirkungen auf den Arbeitsmarkt wird darin bestehen, Einzelpersonen beim Übergang in diese neuen Bereiche der Marktnachfrage zu unterstützen.

Datenschutz

Der Begriff „Privatsphäre“ wird in der Regel im Zusammenhang mit Datenschutz, Datensicherheit und Datensicherheit diskutiert, und diese Bedenken haben es den politischen Entscheidungsträgern ermöglicht, in den letzten Jahren hier größere Fortschritte zu erzielen. So wurde beispielsweise 2016 die DSGVO-Gesetzgebung erlassen, um die personenbezogenen Daten von Personen in der Europäischen Union und dem Europäischen Wirtschaftsraum zu schützen und dem Einzelnen mehr Kontrolle über seine Daten zu geben. In den USA haben einzelne Bundesstaaten Richtlinien entwickelt, wie z. B. das Gesetz zum Schutz der Privatsphäre von Verbrauchern (California Consumer Privacy Act, CCPA), das Unternehmen dazu verpflichtet, Verbraucher über die Erfassung ihrer Daten zu informieren. Diese neue Gesetzgebung hat Unternehmen dazu gezwungen, ihre Art der Speicherung und Nutzung personenbezogener Daten (PII) zu überdenken. Infolgedessen haben Investitionen in die Sicherheit für Unternehmen zunehmend Priorität, da Unternehmen natürlich bestrebt sind, Schwachstellen und Möglichkeiten für Überwachung, Hackerangriffe und Cyberattacken zu beseitigen.

Bias und Diskriminierung

Vorfälle von Bias (Verzerrung) und Diskriminierung in einer Reihe von intelligenten Systemen haben viele ethische Fragen in Bezug auf den Einsatz von künstlicher Intelligenz aufgeworfen. Wie können wir uns vor Verzerrungen und Diskriminierung schützen, wenn die Trainingsdatensätze selbst zu Verzerrungen führen können? Während Unternehmen in der Regel gut gemeinte Absichten mit ihren Automatisierungsbemühungen verfolgen, kann die Integration von KI in die Einstellungspraktiken unvorhergesehene Folgen haben. In ihrem Bestreben, einen Prozess zu automatisieren und zu vereinfachen, hat Amazon unbeabsichtigt potenzielle Bewerber für offene technische Stellen nach Geschlecht voreingenommen (Link befindet sich außerhalb von ibm.com), und sie mussten das Projekt schließlich aufgeben. Da immer mehr solcher Vorfälle bekannt werden, hat der Harvard Business Review (Link befindet sich außerhalb von ibm.com) weitere gezielte Fragen zur Verwendung von KI bei Einstellungsverfahren aufgeworfen, z. B. welche Daten Sie bei der Bewertung eines Kandidaten für eine Stelle verwenden sollten.

Bias und Diskriminierung beschränken sich nicht nur auf die Personalabteilung. Sie sind vielmehr in einer Reihe von Anwendungen zu finden, von Gesichtserkennungssoftware bis hin zu Algorithmen für soziale Medien.

Da sich Unternehmen der Risiken von KI immer bewusster werden, beteiligen sie sich auch aktiver an dieser Diskussion über KI-Ethik und -Werte. So teilte beispielsweise der CEO von IBM, Arvind Krishna, im vergangenen Jahr mit, dass IBM seine universellen IBM-Produkte für Gesichtserkennung und -analyse eingestellt hat, und betonte, dass „IBM die Nutzung jeglicher Technologie, einschließlich der von anderen Anbietern angebotenen Gesichtserkennungstechnologie, für Massenüberwachung, rassistische Profilerstellung, Verletzungen grundlegender Menschenrechte und Freiheiten oder für Zwecke, die nicht mit unseren Werten und Grundsätzen des Vertrauens und der Transparenz vereinbar sind, entschieden ablehnt und nicht dulden wird.“

Rechenschaftspflicht

Es gibt keine universelle, übergreifende Gesetzgebung, die KI-Praktiken regelt, aber viele Länder und Bundesstaaten arbeiten daran, sie auf lokaler Ebene zu entwickeln und umzusetzen. Einige KI-Vorschriften sind heute vorhanden, und es gibt noch viele weitere. Damit diese Lücke geschlossen werden kann, sind in Zusammenarbeit von Ethikern und Forschern ethische Frameworks entstanden, die die Entwicklung und Verbreitung von KI-Modellen in unserer Gesellschaft regeln sollen. Derzeit dienen diese jedoch nur als Orientierungshilfe, und Forschungsergebnisse (Link befindet sich außerhalb von ibm.com) zeigen, dass die Kombination aus verteilter Verantwortung und mangelnder Voraussicht in Bezug auf mögliche Folgen nicht unbedingt dazu beiträgt, Schaden von der Gesellschaft abzuwenden.

So etablieren Sie KI-Ethik

Künstliche Intelligenz funktioniert je nachdem, wie sie entworfen, entwickelt, trainiert, abgestimmt und eingesetzt wird. Bei der KI-Ethik geht es darum, ein Ökosystem ethischer Standards und Leitplanken zu schaffen, das alle Phasen des Lebenszyklus eines KI-Systems umfasst.

Unternehmen, Regierungen und Forscher haben damit begonnen, ein Framework zu entwickeln, um aktuelle ethische Bedenken im Zusammenhang mit KI zu klären und die Zukunft der Arbeit in diesem Bereich zu gestalten. Während diese Richtlinien täglich weiter strukturiert werden, besteht ein gewisser Konsens darüber, Folgendes aufzunehmen:

Governance

Governance ist der Vorgang, bei dem ein Unternehmen den KI-Lebenszyklus durch interne Richtlinien und Prozesse, Mitarbeiter und Systeme überwacht. Governance trägt dazu bei, dass KI-Systeme im Sinne der Grundsätze und Werte einer Organisation, der Erwartungen der Stakeholder und der einschlägigen Vorschriften funktionieren. Ein erfolgreiches Governance-Programm:

  • definiert die Rollen und Verantwortlichkeiten der Personen, die mit KI arbeiten.

  • informiert alle am KI-Lebenszyklus beteiligten Personen über die verantwortungsvolle Entwicklung von KI.

  • etabliert Prozesse für den Aufbau, die Verwaltung, die Überwachung und die Kommunikation über KI und KI-Risiken.

  • nutzt Tools, um die Leistung und Vertrauenswürdigkeit von KI während des gesamten KI-Lebenszyklus zu verbessern.

Ein KI-Ethikrat ist ein besonders effektiver Governance-Mechanismus. Bei IBM setzt sich der KI-Ethikrat aus verschiedenen Führungskräften aus dem gesamten Unternehmen zusammen. Es bietet einen zentralisierten Governance-, Überprüfungs- und Entscheidungsprozess für die Ethikrichtlinien und -praktiken von IBM. Erfahren Sie mehr über den KI-Ethikrat von IBM.

Prinzipien und Schwerpunktbereiche

Der Ansatz eines Unternehmens in Bezug auf KI-Ethik kann sich an Grundsätzen orientieren, die auf Produkte, Richtlinien, Prozesse und Praktiken im gesamten Unternehmen angewendet werden können, um eine vertrauenswürdige KI zu ermöglichen. Diese Grundsätze sollten sich an Schwerpunktbereichen wie Erklärbarkeit oder Fairness orientieren und von diesen unterstützt werden, um die herum Standards entwickelt und Praktiken ausgerichtet werden können.

Wenn KI mit Ethik als Kernelement entwickelt wird, kann sie ein enormes Potenzial entfalten, um die Gesellschaft positiv zu beeinflussen. Wir sehen dies bereits bei der Integration in Bereiche des Gesundheitswesens, wie z. B. der Radiologie. Die Diskussion über die Ethik der KI ist auch wichtig, um mögliche Risiken im Zusammenhang mit der Nutzung der KI angemessen zu bewerten und zu mindern, und zwar bereits in der Entwurfsphase.

Organisationen, die KI-Ethik fördern

Da ethische Standards nicht das Hauptanliegen von Dateningenieuren und Data Scientists im Privatsektor sind, haben sich eine Reihe von Organisationen gebildet, die ethisches Verhalten im Bereich der künstlichen Intelligenz fördern. Für diejenigen, die weitere Informationen wünschen, bieten die folgenden Organisationen und Projekte Ressourcen für die Umsetzung von KI-Ethik:

  • AlgorithmWatch: Diese gemeinnützige Organisation konzentriert sich auf einen erklärbaren und nachvollziehbaren Algorithmus und Entscheidungsprozess in KI-Programmen. Klicken Sie hier (Link befindet sich außerhalb von ibm.com), um mehr zu erfahren.
  • AI Now Institute: Diese gemeinnützige Einrichtung an der New York University erforscht die sozialen Auswirkungen der künstlichen Intelligenz. Klicken Sie hier (der Link befindet sich außerhalb von ibm.com), um mehr zu erfahren.
  • DARPA: Die Defense Advanced Research Projects Agency (Link befindet sich außerhalb von ibm.com) des US-Verteidigungsministeriums konzentriert sich auf die Förderung von „erklärbarer KI“ und Forschung im Bereich KI.
  • CHAI: Das Center for Human-Compatible Artificial Intelligence (Link befindet sich außerhalb von ibm.com) ist eine Kooperation verschiedener Institute und Universitäten, um vertrauenswürdige KI und nachweisliche vorteilhafte Systeme zu fördern.
  • NASCAI: Die National Security Commission on Artificial Intelligence (Link befindet sich außerhalb ibm.com) ist eine unabhängige Kommission, „die die Methoden und Mittel prüft, die erforderlich sind, um die Entwicklung der künstlichen Intelligenz, des maschinellen Lernens und der damit verbundenen Technologien voranzutreiben und die nationalen Sicherheits- und Verteidigungsbedürfnisse der Vereinigten Staaten umfassend zu erfüllen.“
Der Standpunkt von IBM zum Thema der KI-Ethik

IBM hat auch seine eigene Sichtweise auf die KI-Ethik entwickelt und Grundsätze des Vertrauens und der Transparenz aufgestellt, um Kunden zu vermitteln, wo die Werte des Unternehmens in der KI-Debatte liegen. IBM hat drei Kernprinzipien, die den Umgang mit Daten und die KI-Entwicklung bestimmen:

  1. Der Zweck von KI besteht darin, die menschliche Intelligenz zu erweitern. Das bedeutet, dass wir nicht versuchen, menschliche Intelligenz durch KI zu ersetzen, sondern diese zu unterstützen. Da jede neue technologische Innovation Veränderungen bei Angebot und Nachfrage bestimmter Berufsbilder mit sich bringt, hat sich IBM dazu verpflichtet, Arbeitnehmer bei diesem Übergang zu unterstützen, indem das Unternehmen in globale Initiativen zur Förderung von Schulungen im Bereich dieser Technologie investiert.
  2. Daten und Erkenntnisse gehören ihrem Ersteller. IBM-Kunden können sicher sein, dass ihre Daten ihnen allein gehören. IBM hat und wird Regierungsbehörden keinen Zugang zu Kundendaten für Überwachungsprogramme gewähren und ist weiterhin dem Schutz der Privatsphäre seiner Kunden verpflichtet.
  3. KI-Systeme müssen transparent und erklärbar sein. IBM ist der Ansicht, dass Technologieunternehmen klarstellen müssen, wer ihre KI-Systeme trainiert, welche Daten bei diesem Training verwendet wurden und vor allem, was in die Empfehlungen ihrer Algorithmen eingeflossen ist.

IBM hat außerdem fünf Säulen entwickelt, die den verantwortungsvollen Einsatz von KI-Technologien erleichtern sollen. Dazu gehören:

  • Erklärbarkeit: Ein KI-System sollte transparent sein, insbesondere in Bezug darauf, was in die Empfehlungen seines Algorithmus eingeflossen ist, da dies für eine Vielzahl von Stakeholdern mit unterschiedlichen Zielen relevant ist.
  • Fairness: Darunter versteht man die gerechte Behandlung von Individuen oder Gruppen von Individuen durch ein KI-System. Wenn sie richtig kalibriert ist, kann KI den Menschen dabei helfen, gerechtere Entscheidungen zu treffen, menschliche Vorurteile zu bekämpfen und Inklusivität zu fördern.
  • Robustheit: KI-gestützte Systeme müssen aktiv vor Angriffen durch Gegner geschützt werden, Sicherheitsrisiken minimieren und das Vertrauen in die Systemergebnisse stärken.
  • Transparenz: Um das Vertrauen zu stärken, müssen die Benutzer in der Lage sein, die Funktionsweise des Dienstes zu erkennen, seine Funktionalität zu bewerten und seine Stärken und Grenzen zu verstehen.
  • Datenschutz: KI-Systeme müssen die Privatsphäre und die Datenrechte der Verbraucher schützen und ihnen ausdrücklich zusichern, wie ihre personenbezogenen Daten verwendet und geschützt werden.

Diese Grundsätze und Schwerpunktbereiche bilden die Grundlage unseres Ansatzes zur KI-Ethik. Weitere Informationen zu den Ansichten von IBM rund um Ethik und künstliche Intelligenz finden Sie hier.

 

Weiterführende Lösungen
KI-Ethik bei IBM

IBMs multidisziplinärer, multidimensionaler Ansatz für vertrauenswürdige KI

Erkunden Sie KI-Ethik bei IBM
IBM Watson Studio

Erstellen, betreiben und verwalten Sie KI-Modelle. Bereiten Sie Daten vor und erstellen Sie Modelle in jeder Cloud mit Open-Source-Code oder visueller Modellierung. Sagen Sie Ihre Ergebnisse voraus und optimieren Sie sie.

Watson Studio erkunden
IBM watsonx.governance

Ermöglichen Sie verantwortungsvolle, transparente und mit EXPLAIN bearbeitbare KI-Workflows.

IBM watsonx.governance kennenlernen
Machen Sie den nächsten Schritt

Beschleunigen Sie verantwortungsbewusste, transparente und erklärbare KI-Workflows im gesamten Lebenszyklus für generative und maschinelle Lernmodelle. Leiten, verwalten und überwachen Sie die KI-Aktivitäten Ihres Unternehmens, um die wachsenden KI-Vorschriften besser zu handhaben und Risiken zu erkennen und zu mindern.

watsonx.governance erkunden Buchen Sie eine Live-Demo