snowwork
미국 NIST AI RMF 1.0 본문
원문: https://nsp.nanet.go.kr/plan/main/detail.do?nationalPlanControlNo=PLAN0000039452
국가전략정보포털
표제지 목차 1. AI 위험관리 프레임워크(AI Risk Management Framework) 개요 3 2. AI RMF의 주요내용 6 3. AI RMF의 로드맵 18 4. 주요 시사점 21 참고자료 23
nsp.nanet.go.kr
RMF는 Risk Management Framework의 준말로,
본 문서는 미국 국립표준기술연구소(NIST)에 의해 개발된 AI 위험관리 가이드 문서이다.(`23.1.26 발표)
정부, 기업, 학계, 비영리단체, 시민 등 다양한 이해관계자의 협력과 공개 의견 수렴 등을 통해 만들어졌다.
공개적이고 보편적인 성격을 띈 것이 특징이며, '빠른 업데이트'라는 항목을 명시하여 유동적인 성격을 띄고 있다.
안쪽 두개의 원이 AI 시스템의 두 차원을 표현하며 바깥 원은 AI 주기를 나타낸다.
'응용프로그램(계획 설계) -> 데이터 및 입력(데이터 수집 및 처리) -> AI모델(모델 구축 및 사용, 확인 및 검증)
-> 작업 및 출력(배포 및 사용) -> 응용프로그램(운영 및 모니터링) -> 인간과 지구(사용 및 영향) ' 의 AI 주기 한 사이클을 분절해서 나타낸 것이다.
7개 항목을 '신뢰할 수 있는 AI 시스템'의 특성으로 정의하고 있으며,
어느 하나 균형이 어긋나면 신뢰할 수 없다고 설명하고 있다.
간단히 요약하면,
(1) 유효성 및 신뢰성: 시스템이 용도에 따라 작동하는지 지속 평가
(2) 안전성: 생명, 건강, 재산, 환경에 유해한 영향을 미치지 않는지
(3) 보안 및 탄력성: 충격에도 그 기능과 구조를 유지, 안전하게 작동하는지
(4) 책임 및 투명성: 설계부터 최종 의사결정까지 언제, 어떻게, 누구에 의해 이뤄졌는지
(5) 설명 및 해석가능성: 기본 메커니즘과 기능적 목적을 설명할 수 있는지
(6) 개인정보보호 강화: 개인정보보호 가치를 고려했는지
(7) 공정성: 시스템적 편향, 통계적 편향, 인간 인지적 편향을 통제하고 있는지
거버넌스
- 조직의 정책, 프로세스, 절차, 수행기준의 투명성, 효과성
- AI 위험 관리 권한 부여, 교육 및 책임구조 구축
- 전 주기 관리를 위한 프로세스 우선순위 설정(다양성, 형평성, 포용상, 접근성)
- AI 위험에 대해 커뮤니케이션 하는 문화 구축
- 행위자의 강력한 참여를 위한 프로세스 마련
- 제 3의 문제로 발생하는 이점과 위험에 대한 해결 정책, 절차 마련
매핑
- 상황의 설정과 파악
- AI 시스템의 분류
- 벤치마크와의 비교
- AI 시스템의 모든 요소에 대한 위험 및 이점 매핑
- 사회적 영향 특성화
측정
- 적절한 방법 및 지표 식별, 적용
- AI 시스템 평가
- 시간 경과에 따른 추적 메커니즘 구축
- 측정 효율성에 대한 피드백 수집 및 평가
관리
- 평가 결과에 따른 AI 위험에 대한 우선순위 부여, 대응 및 관리
- AI 이점을 극대화하고 위험을 최소화하기 위한 전략 마련, 정보 제공
- 제3자의 위험 및 이점 관리
- AI 위험에 대한 위험 처리 및 커뮤니케이션 계획을 문서화, 모니터링
+
백악관, '...책임감있는 AI 혁신을 촉진하기 위한 조치'('23.5)
- 연방정부 기관인 국립과학재단(NSF)에서 1조 8,500억 원을 출자해 7개 국립 AI 연구기관을 신설
- 구글, 마이크로소프트, 오픈 AI, 스태빌리티 AI, 엔비디아, 허깅 페이스, 앤트로픽에 대한 공개 평가(학습 데이터 등)
- AI 시스템 사용 정책 초안 'Draft Policy Guidance on the Use of AI Systems by the U.S. government for public comment' 예고
개인의견
나름 정리가 잘 되어있는 문서였고, 위험관리에 대한 내용인 만큼 절차, 기능적인 부분을 중시하는 느낌이 든다.
위험관리 프레임워크를 체계적으로 구축했으나, 여전히 어떤 위험을 특정하기는 어려운 상황이다.
제 3자의 위험도 언급하며, AI 위험 관리의 민감성을 반영하고 있는데 그래서 어떤 위험이, 어떻게 오는지를 모르겠고,
이걸 알아야 대응책, 대응체계를 거꾸로 세워볼 수 있지 않나, 라는 생각이 든다.
예를 들면, 원전 사고에 따른 위험은 전례가 있긴 하지만 흔하지 않아도 어느 정도 구체화해볼 수 있을 것 같은데
AI에 대한 위험은 명확한 사고가 없어서 그런지 누구 하나 명확하게 짚어내는 곳이 없는 것 같다.
그나마 유럽 AI법이 생체인식, 잠재의식, 범죄예측 등 키워드들을 명시하며 가장 가까운 느낌
'AI' 카테고리의 다른 글
AI 사고사례 알아보기 (0) | 2025.03.25 |
---|---|
KISTI 인공지능 윤리 보고서 리뷰 (0) | 2025.03.19 |
IEEE 7000™-2021 등 표준화 프로젝트 목록 (0) | 2025.03.19 |
IEEE AI 윤리 이니셔티브 (0) | 2025.03.18 |
기업의 AI 거버넌스 (1) | 2025.03.16 |