Die beste Wahl für zukunftssichere Unternehmen: Sicherung der generativen KI
6. Mai 2024
Lesedauer: 4 Minuten
Studie von IBM und AWS: Weniger als 25 % der aktuellen generativen KI-Projekte werden gesichert 

In der Unternehmenswelt ist man seit langem der Ansicht, dass Vertrauen die Währung für gute Geschäfte ist. Aber da KI die Art und Weise, wie Unternehmen arbeiten und wie Kunden mit ihnen interagieren, verändert und neu definiert, muss Vertrauen in die Technologie aufgebaut werden.

Fortschritte im Bereich KI können Humankapital freisetzen, um sich auf hochwertige Ergebnisse zu konzentrieren. Diese Entwicklung wird sich zwangsläufig transformativ auf das Unternehmenswachstum auswirken, aber die Benutzer- und Kundenerfahrung hängt vom Engagement der Unternehmen ab, sichere, verantwortungsvolle und vertrauenswürdige Technologielösungen zu entwickeln.

Unternehmen müssen feststellen, ob die generative KI, die mit den Nutzern interagiert, vertrauenswürdig ist – und Sicherheit ist eine grundlegende Komponente des Vertrauens. Hier liegt also eine der größten Chancen für Unternehmen: die Sicherung ihrer KI-Bereitstellungen.

 

Jetzt innovativ sein, später absichern: Eine Diskrepanz

Heute hat das IBM® Institute for Business Value die Studie Securing generative AI: What matters now veröffentlicht, die von IBM und AWS gemeinsam verfasst wurde und in der neue Daten, Praktiken und Empfehlungen zur Sicherung generativer KI-Bereitstellungen vorgestellt werden. Laut der IBM-Studie gaben 82 % der Befragten auf Führungsebene an, dass sichere und vertrauenswürdige KI für den Erfolg ihres Unternehmens unerlässlich ist. Das klingt zwar vielversprechend, doch 69 % der befragten Führungskräfte gaben auch an, dass bei generativer KI Innovation Vorrang vor Sicherheit hat.

Die Priorisierung zwischen Innovation und Sicherheit mag wie eine Wahl erscheinen, aber in Wirklichkeit ist es ein Test. Es gibt hier ein klares Spannungsverhältnis. Unternehmen erkennen, dass bei generativer KI mehr auf dem Spiel steht als je zuvor, aber sie wenden ihre Erkenntnisse, die sie in früheren technologischen Umwälzungen gelernt haben, nicht an. Wie beim Übergang zur Hybrid Cloud, zur agilen Softwareentwicklung oder zu Zero Trust kann die Sicherheit durch generative KI erst nachträglich berücksichtigt werden. Mehr als 50 % der Befragten sind besorgt über unvorhersehbare Risiken, die sich auf Initiativen zur generativen KI auswirken, und befürchten, dass sie ein erhöhtes Potenzial für Geschäftsunterbrechungen schaffen werden. Dennoch berichten sie, dass nur 24 % der aktuellen generativen KI-Projekte gesichert sind. Warum gibt es eine solche Diskrepanz?

Die Unentschlossenheit, wenn es um Sicherheit geht, kann sowohl ein Indikator als auch das Ergebnis einer breiteren Wissenslücke über generative KI sein. Fast die Hälfte der Befragten (47 %) gab an, dass sie unsicher sind, wo und wie viel sie in generative KI investieren sollen. Selbst während die Teams neue Funktionen testen, überlegen die Führungskräfte immer noch, welche Anwendungsfälle für generative KI am sinnvollsten sind und wie sie diese für ihre Produktionsumgebungen skalieren.

Die Sicherung generativer KI beginnt mit Governance

Nicht zu wissen, wo man anfangen soll, kann auch ein Hemmnis für Sicherheitsmaßnahmen sein. Aus diesem Grund haben IBM und AWS gemeinsam einen Handlungsleitfaden und praktische Empfehlungen für Unternehmen erstellt, die ihre KI schützen möchten.

Um Vertrauen und Sicherheit in ihre generative KI zu schaffen, müssen Unternehmen mit den Grundlagen beginnen, wobei Governance die Basis bildet. Tatsächlich gaben 81 % der Befragten an, dass generative KI ein grundlegend neues Sicherheits-Governance-Modell erfordert. Indem wir mit Governance, Risiko und Compliance (GRC) beginnen, können Führungskräfte die Grundlage für eine Cybersicherheitsstrategie zum Schutz ihrer KI-Architektur schaffen, die auf Geschäftsziele und Markenwerte abgestimmt ist.

Damit ein Prozess gesichert werden kann, muss man zunächst verstehen, wie er funktionieren soll und wie der erwartete Prozess aussehen soll, um Abweichungen erkennen zu können. KI, die von dem abweicht, wofür sie operativ konzipiert wurde, kann neue Risiken mit unvorhergesehenen Auswirkungen auf das Geschäft mit sich bringen. Die Identifizierung und das Verständnis dieser potenziellen Risiken hilft Unternehmen also, ihre eigene Risikoschwelle zu verstehen, die durch ihre individuellen Compliance- und gesetzlichen Anforderungen bestimmt wird.

Sobald die Governance-Rahmenbedingungen festgelegt wurden, sind Unternehmen in der Lage, effektiver eine Strategie zur Sicherung der KI-Pipeline zu entwickeln. Die Daten, die Modelle und ihre Verwendung – sowie die zugrunde liegende Infrastruktur, die sie aufbauen und in die sie ihre KI-Innovationen einbetten. Das Modell der geteilten Verantwortung für die Sicherheit kann sich ändern, je nachdem, wie das Unternehmen generative KI einsetzt. Es stehen viele Tools, Kontrollen und Prozesse zur Verfügung, um das Risiko von Auswirkungen auf das Geschäft zu mindern, wenn Unternehmen ihre eigenen KI-Abläufe entwickeln.

Unternehmen müssen auch erkennen, dass sie zwar oft zuerst an Halluzinationen, Ethik und Voreingenommenheit denken, wenn sie an vertrauenswürdige KI denken, dass aber die KI-Pipeline mit einer Bedrohungslandschaft konfrontiert ist, die das Vertrauen selbst gefährdet. Konventionelle Bedrohungen erhalten eine neue Bedeutung, neue Bedrohungen nutzen offensive KI-Fähigkeiten als neuen Angriffsvektor, und neue Bedrohungen versuchen, die KI-Assets und -Dienste zu gefährden, auf die wir uns zunehmend verlassen.

Die Gleichung zwischen Vertrauen und Sicherheit

Sicherheit kann dazu beitragen, Vertrauen in generative KI-Anwendungsfälle zu schaffen. Um diese Synergie zu erreichen, müssen Organisationen einen Village-Ansatz wählen. Das Gespräch muss über IS- und IT-Stakeholder hinausgehen und auch Strategie, Produktentwicklung, Risiko, Lieferkette und Kundenbindung betreffen.

Da diese Technologien sowohl transformativ als auch disruptiv sind, erfordert die Verwaltung der KI- und generativen KI-Bestände des Unternehmens eine Zusammenarbeit zwischen Sicherheits-, Technologie- und Geschäftsbereichen.

Ein Technologiepartner kann eine wichtige Rolle spielen. Die Nutzung der Breite und Tiefe des Fachwissens von Technologiepartnern über den gesamten Bedrohungslebenszyklus und das gesamte Sicherheitsökosystem hinweg kann von unschätzbarem Wert sein. Die IBM Studie ergab, dass über 90 % der befragten Unternehmen über einen externen Produkt- oder Technologiepartner für ihre Sicherheitslösungen mit generativer KI aktiviert werden. Bei der Auswahl eines Technologiepartners für ihre generativen KI-Sicherheitsanforderungen gaben die befragten Unternehmen Folgendes an:

  • 76 % suchen einen Partner, der sie bei der Erstellung einer überzeugenden Kostenbegründung mit solidem ROI unterstützt.
  • 58 % suchen Rat für eine Gesamtstrategie und Roadmap.
  • 76 % suchen Partner, die Schulungen, Wissensaustausch und Wissenstransfer erleichtern können.
  • 75 % entscheiden sich für Partner, die sie durch das sich entwickelnde Umfeld der Einhaltung gesetzlicher und regulatorischer Vorschriften führen können.

Die Studie macht deutlich, dass Unternehmen die Bedeutung der Sicherheit für ihre KI-Innovationen erkennen, aber sie versuchen immer noch zu verstehen, wie sie die KI-Revolution am besten angehen sollen. Der Aufbau von Beziehungen, die helfen können, diese Bemühungen zu lenken, zu beraten und technisch zu unterstützen, ist ein entscheidender nächster Schritt in Richtung geschützte und vertrauenswürdige generative KI. IBM und AWS geben nicht nur wichtige Insights in die Wahrnehmungen und Prioritäten von Führungskräften, sondern haben auch einen Aktionsleitfaden mit praktischen Empfehlungen zusammengestellt, um Ihre generative KI-Sicherheitsstrategie auf die nächste Stufe zu bringen.

 
Autor
Dimple Ahluwalia VP & Global Senior Partner, Security Services