ISO AI 표준 4종 — 기술사 답안
ISO 42001 · ISO 5469 · ISO 23894 · ISO 24028 | 개념 · 개념도 · 주요구성요소 · 비교 | 정보관리기술사 대비
| 절 | 항목 | 핵심 내용 | AI 특화 요구사항 |
|---|---|---|---|
| 4 | 조직 맥락 | AI 이해관계자·내외부 이슈 파악 | AI 영향 받는 이해관계자 식별 의무 |
| 5 | 리더십 | 최고경영진 책임·AI 정책 수립 | AI 목적·원칙 문서화, 책임자 지정 |
| 6 | 계획 | AI 리스크·기회 식별, 목표 설정 | AI 시스템별 영향평가(AIIA) 수행 |
| 7 | 지원 | 자원·역량·인식·문서화 | AI 역량 요구사항, 데이터 거버넌스 |
| 8 | 운영 | AI 수명주기 계획·통제 | 공급망 AI 리스크, 책임 있는 사용 |
| 9 | 성과 평가 | 모니터링·측정·내부 감사 | AI 성과 지표, 경영검토 AI 어젠다 |
| 10 | 개선 | 부적합·시정조치·지속 개선 | AI 사고 학습, 지속 개선 루프 |
| 두문자 | 요소 | 핵심 내용 | IEC 61508 대비 AI 특화 |
|---|---|---|---|
| 비 | 비결정성 관리 | 동일 입력에 다른 출력이 나오는 AI 특성을 안전 분석에 반영. 확률 기반 안전 요구사항 설정 | 기존 표준은 결정론 전제 — AI에 미적용 |
| 안 | 안전 무결성 수준 (SIL 적용) | SIL 1~4 등급에 따라 AI 컴포넌트에 요구되는 신뢰성 수준 결정. 자율주행은 SIL 3~4 | AI 컴포넌트에 SIL 개념 최초 적용 |
| 학 | 학습 데이터 품질 | 훈련 데이터의 대표성·완전성·편향 분석. 데이터 수명주기 관리 요구 | 데이터 품질이 소프트웨어 코드만큼 중요 |
| 불 | 불확실성 정량화 | AI 예측의 신뢰구간·불확실성 추정. 고위험 출력 시 인간 개입 트리거 | 기존 표준에 없는 확률론적 보증 요구 |
| 인 | 인간 감독 설계 | AI 자율 판단 한계 명세. 안전 임계 상황에서 인간 제어권 복귀 메커니즘 | OECD AI 원칙의 인간 감독과 연계 |
| 두문자 | 위험 유형 | 설명 | 대응 방안 |
|---|---|---|---|
| 편 | 편향 위험 (Bias) | 학습 데이터·알고리즘·출력에서 특정 집단 불공정 결과. Amazon 채용 AI, COMPAS 사례 | 대표성 데이터 확보, 공정성 지표 측정, 정기 편향 감사 |
| 불 | 불투명성 위험 (Opacity) | AI 의사결정 과정이 블랙박스로 설명 불가. 규제 컴플라이언스·사용자 신뢰 저해 | XAI 기법(LIME·SHAP) 적용, 모델 카드 작성 |
| 적 | 적대적 공격 (Adversarial) | 의도적으로 조작된 입력으로 AI 오작동 유도. 자율주행 표지판 공격, 챗봇 탈옥 | 적대적 훈련, 입력 검증, 하네스 가드레일 |
| 의 | 의존성 위험 (Dependency) | AI 시스템 장애 시 연쇄 영향. AI 단일 장애점(SPOF), 공급망 AI 의존 | 페일세이프 설계, 인간 폴백, 다중화 |
| 시 | 시간적 위험 (Temporal) | 배포 후 환경 변화로 모델 성능 저하(데이터 드리프트). 훈련 시 정렬된 모델도 배포 후 붕괴 | 지속 모니터링, 주기적 재학습, 드리프트 감지 |
| 속성 | 정의 | 저해 위협 | 대응 기술·표준 |
|---|---|---|---|
| 견고성 | 예상치 못한 입력·환경 변화에도 안정적 성능 유지 | 적대적 예제, OOD 데이터, 데이터 드리프트 | 적대적 훈련, 입력 정제, ISO 5469 |
| 투명성 | AI 시스템·프로세스·의도를 이해관계자가 이해 가능 | 블랙박스 모델, 의사결정 불가시 | 모델 카드, 시스템 문서화, ISO 42001 |
| 설명가능성 | AI 특정 결정에 대한 이유를 인간이 이해 가능 | 복잡 신경망, 설명 부재 | LIME·SHAP·GRAD-CAM (XAI 기법) |
| 공정성 | 특정 집단에 불공정한 편향 없이 일관된 결과 제공 | 학습 데이터 편향, 알고리즘 편향 | 공정성 지표, 편향 감사, ISO 23894 |
| 안전성 | 의도치 않은 해로운 결과 방지 및 통제 가능 | Reward Hacking, 목표 오명세 | AI Alignment, Guardrails, ISO 5469 |
| 프라이버시 | AI 학습·추론 과정에서 개인정보 보호 | 학습 데이터 복원, 멤버십 추론 공격 | 차분 프라이버시, 연합 학습, GDPR |
| 비교 기준 | ISO 42001 경영시스템 |
ISO 5469 기능 안전 |
ISO 23894 위험관리 |
ISO 24028 신뢰성 |
|---|---|---|---|---|
| 문서 유형 | 요구사항 (Shall) → 인증 가능 |
요구사항 (Shall) → 인증 연계 |
지침 (Should) → 인증 불가 |
개요 (Overview) → 기반 표준 |
| 초점 | 조직 경영·거버넌스 | 안전 관련 시스템 | 위험 식별·대응 | 신뢰성 속성 정의 |
| 연계 모표준 | ISO 9001 / 27001 (HLS 구조) |
IEC 61508 (기능 안전) |
ISO 31000 (위험관리) |
독립 (타 표준 기반) |
| 적용 대상 | AI 개발·사용 조직 전체 | 안전 관련 AI 시스템 | AI 관련 의사결정자 | AI 설계자·정책입안자 |
| 핵심 산출물 | AIMS 인증서 내부 감사 보고서 |
안전 케이스 SIL 근거 문서 |
위험 등록부 위험 대응 계획 |
신뢰성 속성 체크리스트 |
| 제정 연도 | 2023 | 2024 | 2023 | 2022 |
| EU AI Act 연계 | 고위험 AI 관리체계 | 고위험 AI 안전 근거 | 위험관리 시스템 | 신뢰성 요건 정의 |