Startseite
Themen
KI-Ethik
Ethik ist eine Reihe moralischer Grundsätze, die uns helfen, zwischen richtig und falsch zu unterscheiden. KI-Ethik ist ein multidisziplinäres Fachgebiet, das untersucht, wie die positiven Auswirkungen von KI optimiert und gleichzeitig Risiken und negative Folgen reduziert werden können.
Beispiele für ethische Fragen im Zusammenhang mit KI sind Datenverantwortung und Datenschutz, Fairness, Erklärbarkeit, Robustheit, Transparenz, ökologische Nachhaltigkeit, Inklusion, moralische Entscheidungsfreiheit, Wertorientierung, Rechenschaftspflicht, Vertrauen und Technologiemissbrauch. Dieser Artikel soll einen umfassenden Marktüberblick über die KI-Ethik in der heutigen Branche geben. Weitere Informationen zur Sichtweise von IBM finden Sie hier auf unserer Seite zur KI-Ethik.
Mit dem Aufkommen von Big Data haben Unternehmen ihren Fokus verstärkt auf die Förderung der Automatisierung und datengestützten Entscheidungsfindung in ihren Unternehmen gelegt. Obwohl die Absicht in der Regel, wenn auch nicht immer, darin besteht, die Geschäftsergebnisse zu verbessern, erleben Unternehmen bei einigen ihrer KI-Anwendungen unvorhergesehene Konsequenzen, insbesondere aufgrund eines schlechten Forschungsdesigns im Vorfeld und voreingenommener Datensätze.
Da Fälle von unfairen Ergebnissen ans Licht gekommen sind, sind neue Richtlinien entstanden, vor allem aus den Forschungs- und Datenwissenschaftskreisen, um Bedenken hinsichtlich der Ethik von KI auszuräumen. Führende Unternehmen im Bereich der KI haben ebenfalls ein starkes Interesse an der Gestaltung dieser Richtlinien, da sie selbst bereits einige der Folgen zu spüren bekommen haben, die sich aus der Nichteinhaltung ethischer Standards bei ihren Produkten ergeben. Mangelnde Sorgfalt in diesem Bereich kann zu Reputations-, Regulierungs- und Rechtsrisiken führen, die kostspielige Strafen nach sich ziehen. Wie bei allen technologischen Fortschritten überholt die Innovation in neuen, aufstrebenden Bereichen tendenziell die staatliche Regulierung. Da sich in der Regierungsbranche das entsprechende Fachwissen entwickelt, können wir davon ausgehen, dass weitere KI-Protokolle für Unternehmen folgen werden, die es ihnen ermöglichen, Verstöße gegen Menschenrechte und bürgerliche Freiheiten zu vermeiden.
Beschleunigen Sie verantwortungsvolle, transparente und erklärbare Workflows für generative KI, die auf Drittanbieter-Plattformen erstellt wurde.
Während Regeln und Protokolle entwickelt werden, um den Einsatz von KI zu steuern, hat die akademische Gemeinschaft den Belmont Report (Link befindet sich außerhalb von ibm.com) als Leitfaden für ethische Grundsätze in der experimentellen Forschung und algorithmischen Entwicklung genutzt. Aus dem Belmont Report ergeben sich drei Hauptprinzipien, die als Leitfaden für die Gestaltung von Experimenten und Algorithmen dienen:
Es gibt eine Reihe von Themen, die bei ethischen Gesprächen über KI-Technologien in der realen Welt im Vordergrund stehen. Einige davon sind:
Die Veröffentlichung von ChatGPT im Jahr 2022 markierte einen echten Wendepunkt für künstliche Intelligenz. Die Fähigkeiten des Chatbots von OpenAI – vom Schreiben von rechtlichen Unterlagen bis hin zum Debuggen von Code – eröffneten eine neue Konstellation von Möglichkeiten dafür, was KI leisten kann und wie sie in fast allen Branchen eingesetzt werden kann. ChatGPT und ähnliche Tools basieren auf Foundation Models, KI-Modellen, die an eine Vielzahl nachgelagerter Aufgaben angepasst werden können. Foundation Models sind in der Regel groß angelegte generative Modelle, die aus ungekennzeichneten Daten trainiert werden. Dadurch können Foundation Models das Gelernte schnell in einem anderen Kontext anwenden, wodurch sie äußerst anpassungsfähig sind und eine Vielzahl unterschiedlicher Aufgaben ausführen können. Es gibt jedoch viele potenzielle Probleme und ethische Bedenken im Zusammenhang mit Foundation Models, die in der Technologiebranche allgemein anerkannt sind, wie z. B. Voreingenommenheit, Generierung falscher Inhalte, mangelnde Erklärbarkeit, Missbrauch und gesellschaftliche Auswirkungen. Viele dieser Probleme sind für KI im Allgemeinen relevant, gewinnen jedoch angesichts der Leistungsfähigkeit und Verfügbarkeit von Foundation Models an neuer Dringlichkeit.
Obwohl dieses Thema in der Öffentlichkeit viel Aufmerksamkeit erregt, zeigen sich viele Forscher angesichts der Vorstellung, dass KI die menschliche Intelligenz in naher oder unmittelbarer Zukunft übertreffen könnte, unbesorgt. Dies wird auch als Superintelligenz bezeichnet, die Nick Bostrum definiert als „einen Intellekt, der die besten menschlichen Gehirne in praktisch allen Bereichen, einschließlich wissenschaftlicher Kreativität, allgemeiner Weisheit und sozialer Fähigkeiten, bei weitem übertrifft“. Obwohl die Entwicklung einer starken KI oder Superintelligenz in unserer Gesellschaft nicht unmittelbar bevorsteht, wirft sie im Hinblick auf den Einsatz autonomer Systeme, wie z. B. selbstfahrender Autos, einige interessante Fragen auf. Es ist unrealistisch zu glauben, dass ein fahrerloses Auto niemals in einen Unfall verwickelt sein wird – aber wer ist bei einem Unfall verantwortlich und haftbar? Sollten wir weiterhin autonome Fahrzeuge anstreben oder die Integration dieser Technologie auf halbautonome Fahrzeuge beschränken, die die Sicherheit der Fahrer erhöhen? Darüber ist man sich noch nicht einig, aber im Zuge der Entwicklung neuer, innovativer KI-Technologien kommen derartige ethische Debatten immer wieder auf.
In der öffentlichen Wahrnehmung der künstlichen Intelligenz geht es häufig um den Verlust von Arbeitsplätzen, aber diese Bedenken sollten besser anders formuliert werden. Mit jeder bahnbrechenden, neuen Technologie verschiebt sich die Marktnachfrage nach bestimmten Tätigkeitsbereichen. In der Automobilindustrie beispielsweise konzentrieren sich viele Hersteller, wie etwa GM, auf die Produktion von Elektrofahrzeugen, um grüne Initiativen zu unterstützen. Die Energiewirtschaft löst sich dadurch jedoch nicht einfach in Luft auf. Es findet lediglich eine Umstellung von brennstoff- zu elektrobasierten Technologien statt. Künstliche Intelligenz sollte auf ähnliche Weise betrachtet werden, wobei künstliche Intelligenz die Nachfrage nach Arbeitsplätzen in andere Bereiche verlagern wird. Man braucht Mitarbeiter, die bei der Verwaltung dieser Systeme helfen, da die Datenmengen täglich wachsen und sich ändern. In Branchen, die am ehesten von einer Verlagerung der Arbeitsplatznachfrage betroffen sind, wie z. B. im Kundenservice, werden weiterhin Ressourcen benötigt, um komplexere Probleme anzugehen. Der wichtige Aspekt der künstlichen Intelligenz und ihrer Auswirkungen auf den Arbeitsmarkt wird darin bestehen, Einzelpersonen beim Übergang in diese neuen Bereiche der Marktnachfrage zu unterstützen.
Der Begriff „Privatsphäre“ wird in der Regel im Zusammenhang mit Datenschutz, Datensicherheit und Datensicherheit diskutiert, und diese Bedenken haben es den politischen Entscheidungsträgern ermöglicht, in den letzten Jahren hier größere Fortschritte zu erzielen. So wurde beispielsweise 2016 die DSGVO-Gesetzgebung erlassen, um die personenbezogenen Daten von Personen in der Europäischen Union und dem Europäischen Wirtschaftsraum zu schützen und dem Einzelnen mehr Kontrolle über seine Daten zu geben. In den USA haben einzelne Bundesstaaten Richtlinien entwickelt, wie z. B. das Gesetz zum Schutz der Privatsphäre von Verbrauchern (California Consumer Privacy Act, CCPA), das Unternehmen dazu verpflichtet, Verbraucher über die Erfassung ihrer Daten zu informieren. Diese neue Gesetzgebung hat Unternehmen dazu gezwungen, ihre Art der Speicherung und Nutzung personenbezogener Daten (PII) zu überdenken. Infolgedessen haben Investitionen in die Sicherheit für Unternehmen zunehmend Priorität, da Unternehmen natürlich bestrebt sind, Schwachstellen und Möglichkeiten für Überwachung, Hackerangriffe und Cyberattacken zu beseitigen.
Vorfälle von Bias (Verzerrung) und Diskriminierung in einer Reihe von intelligenten Systemen haben viele ethische Fragen in Bezug auf den Einsatz von künstlicher Intelligenz aufgeworfen. Wie können wir uns vor Verzerrungen und Diskriminierung schützen, wenn die Trainingsdatensätze selbst zu Verzerrungen führen können? Während Unternehmen in der Regel gut gemeinte Absichten mit ihren Automatisierungsbemühungen verfolgen, kann die Integration von KI in die Einstellungspraktiken unvorhergesehene Folgen haben. In ihrem Bestreben, einen Prozess zu automatisieren und zu vereinfachen, hat Amazon unbeabsichtigt potenzielle Bewerber für offene technische Stellen nach Geschlecht voreingenommen (Link befindet sich außerhalb von ibm.com), und sie mussten das Projekt schließlich aufgeben. Da immer mehr solcher Vorfälle bekannt werden, hat der Harvard Business Review (Link befindet sich außerhalb von ibm.com) weitere gezielte Fragen zur Verwendung von KI bei Einstellungsverfahren aufgeworfen, z. B. welche Daten Sie bei der Bewertung eines Kandidaten für eine Stelle verwenden sollten.
Bias und Diskriminierung beschränken sich nicht nur auf die Personalabteilung. Sie sind vielmehr in einer Reihe von Anwendungen zu finden, von Gesichtserkennungssoftware bis hin zu Algorithmen für soziale Medien.
Da sich Unternehmen der Risiken von KI immer bewusster werden, beteiligen sie sich auch aktiver an dieser Diskussion über KI-Ethik und -Werte. So teilte beispielsweise der CEO von IBM, Arvind Krishna, im vergangenen Jahr mit, dass IBM seine universellen IBM-Produkte für Gesichtserkennung und -analyse eingestellt hat, und betonte, dass „IBM die Nutzung jeglicher Technologie, einschließlich der von anderen Anbietern angebotenen Gesichtserkennungstechnologie, für Massenüberwachung, rassistische Profilerstellung, Verletzungen grundlegender Menschenrechte und Freiheiten oder für Zwecke, die nicht mit unseren Werten und Grundsätzen des Vertrauens und der Transparenz vereinbar sind, entschieden ablehnt und nicht dulden wird.“
Es gibt keine universelle, übergreifende Gesetzgebung, die KI-Praktiken regelt, aber viele Länder und Bundesstaaten arbeiten daran, sie auf lokaler Ebene zu entwickeln und umzusetzen. Einige KI-Vorschriften sind heute vorhanden, und es gibt noch viele weitere. Damit diese Lücke geschlossen werden kann, sind in Zusammenarbeit von Ethikern und Forschern ethische Frameworks entstanden, die die Entwicklung und Verbreitung von KI-Modellen in unserer Gesellschaft regeln sollen. Derzeit dienen diese jedoch nur als Orientierungshilfe, und Forschungsergebnisse (Link befindet sich außerhalb von ibm.com) zeigen, dass die Kombination aus verteilter Verantwortung und mangelnder Voraussicht in Bezug auf mögliche Folgen nicht unbedingt dazu beiträgt, Schaden von der Gesellschaft abzuwenden.
Künstliche Intelligenz funktioniert je nachdem, wie sie entworfen, entwickelt, trainiert, abgestimmt und eingesetzt wird. Bei der KI-Ethik geht es darum, ein Ökosystem ethischer Standards und Leitplanken zu schaffen, das alle Phasen des Lebenszyklus eines KI-Systems umfasst.
Unternehmen, Regierungen und Forscher haben damit begonnen, ein Framework zu entwickeln, um aktuelle ethische Bedenken im Zusammenhang mit KI zu klären und die Zukunft der Arbeit in diesem Bereich zu gestalten. Während diese Richtlinien täglich weiter strukturiert werden, besteht ein gewisser Konsens darüber, Folgendes aufzunehmen:
Governance ist der Vorgang, bei dem ein Unternehmen den KI-Lebenszyklus durch interne Richtlinien und Prozesse, Mitarbeiter und Systeme überwacht. Governance trägt dazu bei, dass KI-Systeme im Sinne der Grundsätze und Werte einer Organisation, der Erwartungen der Stakeholder und der einschlägigen Vorschriften funktionieren. Ein erfolgreiches Governance-Programm:
definiert die Rollen und Verantwortlichkeiten der Personen, die mit KI arbeiten.
informiert alle am KI-Lebenszyklus beteiligten Personen über die verantwortungsvolle Entwicklung von KI.
etabliert Prozesse für den Aufbau, die Verwaltung, die Überwachung und die Kommunikation über KI und KI-Risiken.
nutzt Tools, um die Leistung und Vertrauenswürdigkeit von KI während des gesamten KI-Lebenszyklus zu verbessern.
Ein KI-Ethikrat ist ein besonders effektiver Governance-Mechanismus. Bei IBM setzt sich der KI-Ethikrat aus verschiedenen Führungskräften aus dem gesamten Unternehmen zusammen. Es bietet einen zentralisierten Governance-, Überprüfungs- und Entscheidungsprozess für die Ethikrichtlinien und -praktiken von IBM. Erfahren Sie mehr über den KI-Ethikrat von IBM.
Der Ansatz eines Unternehmens in Bezug auf KI-Ethik kann sich an Grundsätzen orientieren, die auf Produkte, Richtlinien, Prozesse und Praktiken im gesamten Unternehmen angewendet werden können, um eine vertrauenswürdige KI zu ermöglichen. Diese Grundsätze sollten sich an Schwerpunktbereichen wie Erklärbarkeit oder Fairness orientieren und von diesen unterstützt werden, um die herum Standards entwickelt und Praktiken ausgerichtet werden können.
Wenn KI mit Ethik als Kernelement entwickelt wird, kann sie ein enormes Potenzial entfalten, um die Gesellschaft positiv zu beeinflussen. Wir sehen dies bereits bei der Integration in Bereiche des Gesundheitswesens, wie z. B. der Radiologie. Die Diskussion über die Ethik der KI ist auch wichtig, um mögliche Risiken im Zusammenhang mit der Nutzung der KI angemessen zu bewerten und zu mindern, und zwar bereits in der Entwurfsphase.
Da ethische Standards nicht das Hauptanliegen von Dateningenieuren und Data Scientists im Privatsektor sind, haben sich eine Reihe von Organisationen gebildet, die ethisches Verhalten im Bereich der künstlichen Intelligenz fördern. Für diejenigen, die weitere Informationen wünschen, bieten die folgenden Organisationen und Projekte Ressourcen für die Umsetzung von KI-Ethik:
IBM hat auch seine eigene Sichtweise auf die KI-Ethik entwickelt und Grundsätze des Vertrauens und der Transparenz aufgestellt, um Kunden zu vermitteln, wo die Werte des Unternehmens in der KI-Debatte liegen. IBM hat drei Kernprinzipien, die den Umgang mit Daten und die KI-Entwicklung bestimmen:
IBM hat außerdem fünf Säulen entwickelt, die den verantwortungsvollen Einsatz von KI-Technologien erleichtern sollen. Dazu gehören:
Diese Grundsätze und Schwerpunktbereiche bilden die Grundlage unseres Ansatzes zur KI-Ethik. Weitere Informationen zu den Ansichten von IBM rund um Ethik und künstliche Intelligenz finden Sie hier.
IBMs multidisziplinärer, multidimensionaler Ansatz für vertrauenswürdige KI
Erstellen, betreiben und verwalten Sie KI-Modelle. Bereiten Sie Daten vor und erstellen Sie Modelle in jeder Cloud mit Open-Source-Code oder visueller Modellierung. Sagen Sie Ihre Ergebnisse voraus und optimieren Sie sie.
Ermöglichen Sie verantwortungsvolle, transparente und mit EXPLAIN bearbeitbare KI-Workflows.