국가사이버보안표준화기술위원회, ‘인공지능(AI) 보안 거버넌스 프레임워크’ 발표 | ||
|
||
우만주 (yumanshu87@naver.com)
□ 프레임워크는 AI의 위험 요소와 형태를 분석하고 기술적 대응과 종합적 예방 조치를 제안(24.9.19)
○ 중국 국가사이버보안표준화기술위원회는 최근 광저우에서 열린 중국 사이버보안 포럼에서 ‘인공지능(AI) 보안 거버넌스 프레임워크(人工智能安全治理框架)’ 버전 1.0을 공개
- 시진핑 주석이 발표한 ‘글로벌 AI 거버넌스 이니셔티브’(′23.10월)의 이행을 더욱 추진하고 인공지능 산업의 건강하고 지속 가능한 발전을 도모하는 데 목적이 있음
○ 이 프레임워크는 인공지능 시스템의 전 생애주기를 걸쳐 내생적 보안 위험과 응용 보안 위험을 분석하고, 이에 대한 기술적 대응조치와 종합적 예방 조치를 제안
- (내생적 보안 위험) 인공지능 모델 알고리즘 보안 위험, 데이터 보안 위험, 시스템 보안 위험 등 3대 위험 요소 분석과 대응 방안 마련
- (응용 보안 위험) 인공지능 네트워크 영역, 현실 영역, 지식 영역, 윤리 영역에서의 보안 위험 분석 및 대응조치 제안
○ 또한, 인공지능 안전 관리에서 각 주체(관리자, 개발자, 서비스 제공자, 전문 사용자, 일반 사용자)의 책임과 의무를 명확히 규정하며, 각 주체에게 행동 지침을 제공
1) 관리자(정부 부처, 업계 협회 포함)
- 정부 부처와 업계 협회는 관련 법규 제정 및 정책을 통해 규제를 강화하고, 인공지능 서비스의 분류 및 등급 관리, 추적 가능성 관리 제도, 데이터 보안 및 개인정보 보호 규범 등을 마련하여 협력적 거버넌스 체계를 구축
2) 개발자
- 개발자는 요구 분석, 프로젝트 입안, 모델 설계·개발, 훈련 데이터 선택 등 주요 단계에서 데이터 보안 및 개인정보 보호를 우선시하며, 모델 알고리즘의 잠재적 편향을 사전 평가
- 개발 단계에서 모델 설명 가능성 향상, 데이터 보안 보호 강화, 시스템 안전 설계 완비 등을 위한 기술적 지침을 제공
3) 서비스 제공자
- 서비스 제공자는 인공지능 기술의 능력 범위와 적용 조건을 명확히 이해하고, 이를 지속적으로 점검 실시
- 사용자에게 충분한 투명성을 제공하여 시스템 오류 및 보안 사건 발생 시 신속하게 대응하고 관련 부처에 보고 필요
4) 전문 사용자
- 공공 안전과 민생에 직접적으로 영향을 미치는 분야에서는 높은 수준의 안전 의식과 위험 발견 및 처리 능력을 요구하며, 이를 위해 엄격한 보안 감독·감사 메커니즘을 구축
5) 일반 사용자
- 사회 대중에게 인공지능의 안전 위험을 알리고, 사용자의 안전 방어 의식을 높이는 것이 중요함
- 이를 위해 사용자에게 제품 기능과 한계를 명확히 전달하며, 인공지능 기술을 안전하고 합리적으로 사용할 수 있는 지침을 제공
□ 시사점
○ 이번 ‘인공지능(AI) 보안 거버넌스 프레임워크’ 버전 1.0의 발표는 인공지능 안전 관리체계의 신속한 구축과 글로벌 협력 강화를 촉진할 것으로 전망
- (프레임워크 구축) 안전하고 투명한 인공지능 기술 연구 개발 및 응용 생태계를 조성하여 인공지능의 건강한 발전과 규범적인 응용을 촉진
- (국제 협력 강화) 인공지능 안전 거버넌스의 국제 협력을 촉진하고 광범위한 공감대를 형성한 글로벌 인공지능 거버넌스 체계를 구축하는 데 기여함
<참고자료>
(24.9.9,全国网安标委) 人工智能安全治理框架 1.0版
(24.9.19, 全国网安标委) 专家解读 | 《人工智能安全治理框架》
|