오늘날의 사이버 위협 환경은 복잡합니다. 클라우드 및 하이브리드 클라우드 환경으로의 전환으로 인해 데이터가 무분별하게 확산되고 공격 표면이 확대되었으며, 위협 행위자는 취약점을 악용할 새로운 방법을 계속 찾고 있습니다. 동시에 사이버 보안 전문가는 여전히 부족하여 미국에서만 700,000개 이상의 일자리가 창출되고 있습니다.2
그래서 이제 사이버 공격이 더 빈번하게 일어나고 더 많은 비용을 초래합니다. 데이터 유출 비용(CODB) 보고서에 따르면 2023년 데이터 유출을 복구하는 데 든 비용은 전 세계 평균 445만 달러로, 3년 동안 15%가 증가했습니다.
AI 보안이 솔루션을 제공할 수 있습니다. AI는 위협 탐지 및 대응을 자동화하여 실시간으로 공격을 더 쉽게 예방하고 위협 행위자를 잡을 수 있도록 합니다. AI 도구는 악성 소프트웨어를 식별하고 격리하여 멀웨어 공격을 방지하는 것부터 반복되는 로그인 시도를 인식하고 차단하여 무차별 대입 공격을 탐지하는 것까지 모든 것을 지원할 수 있습니다.
AI 보안을 통해 조직은 보안 운영을 지속적으로 모니터링하고 머신 러닝 알고리즘을 사용하여 진화하는 사이버 위협에 적응할 수 있습니다.
AI 보안에 투자하지 않으면 비용이 많이 듭니다. AI 보안이 없는 조직의 평균 데이터 유출 비용은 536만 달러로 전체 조직의 평균 비용보다 18.6% 높습니다.
보안을 제한적으로 적용하더라도 비용 절감 효과는 상당합니다. AI 보안을 제한적으로 적용한 기업의 데이터 유출 비용은 평균 404만달러로, 전체 평균보다 40만 달러, AI 보안이 전혀 없는 기업보다 28.1% 적었습니다.
AI는 이러한 이점에도 불구하고 보안 문제, 특히 데이터 보안 문제를 야기합니다. AI 모델은 학습 데이터만큼만 신뢰할 수 있습니다. 조작되거나 편향된 데이터는 오탐 또는 부정확한 응답으로 이어질 수 있습니다. 예를 들어, 채용 결정에 사용되는 편향된 학습 데이터는 AI 모델이 특정 인구 집단을 선호하고 다른 집단을 차별하는 등 성별 또는 인종 편견을 강화할 수 있습니다.3
AI 도구는 또한 위협 행위자가 보안 취약성을 보다 성공적으로 악용하는 데 사용될 수 있습니다. 예를 들어, 공격자는 AI를 사용하여 시스템 취약점 검색을 자동화하거나 정교한 피싱 공격을 생성할 수 있습니다.
로이터 통신에 따르면 미국 연방수사국(FBI)은 AI로 인한 사이버 침입이 증가하고 있다고 밝혔습니다.4 또한 최근 보고서에 따르면 고위 사이버 보안 전문가의 75%가 사이버 공격이 증가하고 있으며, 85%는 생성형 AI를 사용하는 악의적 행위자를 사이버 공격의 증가의 원인으로 꼽았습니다.5
앞으로 많은 조직은 AI 윤리 또는 보안을 손상시키지 않으면서 인공 지능의 이점을 활용하기 위해 보안 AI에 시간과 리소스를 투자할 방법을 모색할 것입니다("AI 보안 모범 사례" 참조).