ISO AI 표준 4종 — 기술사 답안

ISO 42001 · ISO 5469 · ISO 23894 · ISO 24028 | 개념 · 개념도 · 주요구성요소 · 비교 | 정보관리기술사 대비

ISO/IEC 42001
인공지능 경영 시스템 (AI Management System, AIMS) · 2023년 제정
개념
정의: 조직이 AI를 책임감 있게 개발·제공·사용할 수 있도록, AI 관련 리스크와 기회를 체계적으로 다루는 경영 시스템 요구사항을 규정한 국제표준. ISO 9001(품질)·ISO 27001(정보보안)과 동일한 고수준구조(HLS) 기반으로, 기존 경영시스템과 통합 운영 가능

핵심 철학: AI를 단순 IT 도구가 아닌 조직 전략·윤리·리스크 관리의 대상으로 다룸. "AI를 쓰는 조직"과 "AI를 만드는 조직" 모두에 적용
개념도 — PDCA 기반 AIMS 구조
Plan
맥락·리더십
계획·지원
Do
운영
AI시스템 구현
Check
성과평가
감사·검토
Act
개선
부적합 시정
↻ 지속적 개선 루프 — HLS 10개 절(Clause) 기반
주요 구성 요소 — HLS 10절 구조 "맥리계지운성감개"
항목핵심 내용AI 특화 요구사항
4조직 맥락AI 이해관계자·내외부 이슈 파악AI 영향 받는 이해관계자 식별 의무
5리더십최고경영진 책임·AI 정책 수립AI 목적·원칙 문서화, 책임자 지정
6계획AI 리스크·기회 식별, 목표 설정AI 시스템별 영향평가(AIIA) 수행
7지원자원·역량·인식·문서화AI 역량 요구사항, 데이터 거버넌스
8운영AI 수명주기 계획·통제공급망 AI 리스크, 책임 있는 사용
9성과 평가모니터링·측정·내부 감사AI 성과 지표, 경영검토 AI 어젠다
10개선부적합·시정조치·지속 개선AI 사고 학습, 지속 개선 루프
AI 특화 부속서 및 ISO 27001 비교
부속서 A — AI 통제 항목 (39개)
A.2 AI 정책·역할·책임
A.3 내부 AI 영향평가(AIIA)
A.4 AI 시스템 수명주기
A.5 데이터 품질·거버넌스
A.6 정보 보안(27001 연계)
A.7 AI 공급망 관리
A.8 인간 감독 메커니즘
A.9 투명성·설명 가능성
A.10 책임 있는 AI 사용
ISO 27001(정보보안) vs ISO 42001(AI경영) 비교
공통: HLS 기반, PDCA, 위험관리, 감사·인증

27001 초점: 기밀성·무결성·가용성 (CIA)
42001 초점: AI 윤리·공정성·투명성·인간 감독

통합 운영: 두 표준은 동시 인증 가능. AI 시스템 보안은 27001, AI 거버넌스는 42001

킬러 비교: "27001은 데이터를 지키고, 42001은 AI를 책임지게 한다"
💡 킬러 문장: "ISO 42001은 AI를 위한 ISO 9001이다. 품질경영이 제품 품질을 보장하듯, AI 경영시스템은 AI의 신뢰성·책임성·투명성을 조직 전체 차원에서 보장한다."
ISO/IEC 5469
인공지능 기능 안전 (AI Functional Safety) · IEC 61508 연계 · 2024년 제정
개념
정의: AI·ML 컴포넌트를 안전 관련 시스템(Safety-Related System)에 통합할 때 발생하는 기능 안전 고려사항을 다루는 국제표준. 기존 IEC 61508(전기·전자 시스템 기능 안전)의 AI 확장판

핵심 문제: 기존 기능 안전 표준은 결정론적(Deterministic) 소프트웨어를 전제 — AI는 확률론적(Probabilistic)이므로 동일 입력에 다른 출력이 가능. 이 비결정성을 어떻게 안전 요구사항에 통합할 것인가가 핵심
개념도 — AI 기능 안전 V-모델
좌측: 명세·설계
시스템 안전 요구사항
SIL 결정 (1~4)
AI 컴포넌트 안전 요구
비결정성 허용 범위 명세
AI 모델 설계·학습
훈련 데이터 품질 보증
V
우측: 검증·확인
시스템 통합 검증
안전 케이스 완성
AI 컴포넌트 검증
OOD 견고성 테스트
AI 모델 검증
성능·편향 평가
주요 구성 요소 — "비안학불인"
두문자요소핵심 내용IEC 61508 대비 AI 특화
비결정성 관리동일 입력에 다른 출력이 나오는 AI 특성을 안전 분석에 반영. 확률 기반 안전 요구사항 설정기존 표준은 결정론 전제 — AI에 미적용
안전 무결성 수준
(SIL 적용)
SIL 1~4 등급에 따라 AI 컴포넌트에 요구되는 신뢰성 수준 결정. 자율주행은 SIL 3~4AI 컴포넌트에 SIL 개념 최초 적용
학습 데이터 품질훈련 데이터의 대표성·완전성·편향 분석. 데이터 수명주기 관리 요구데이터 품질이 소프트웨어 코드만큼 중요
불확실성 정량화AI 예측의 신뢰구간·불확실성 추정. 고위험 출력 시 인간 개입 트리거기존 표준에 없는 확률론적 보증 요구
인간 감독 설계AI 자율 판단 한계 명세. 안전 임계 상황에서 인간 제어권 복귀 메커니즘OECD AI 원칙의 인간 감독과 연계
IEC 61508 vs ISO 5469 비교 및 적용 사례
IEC 61508 vs ISO 5469
61508: 결정론적 SW·HW, 명확한 고장 모드 분석
5469: 확률론적 AI, OOD(분포 이탈) 고장 모드 추가

공통: SIL 개념, V-모델, 안전 케이스 문서화

5469 추가: 학습 데이터 품질, 불확실성 정량화, 적대적 예제 견고성 테스트
적용 사례 (SIL 등급별)
SIL 4 (최고): 원자력 발전소 AI 이상 감지
SIL 3: 자율주행 충돌 회피 AI (자동차 ISO 26262)
SIL 2: 의료 AI 진단 보조 시스템
SIL 1: 산업 로봇 협동 작업 AI

연계 표준: 자동차 ISO 26262 (ASIL), 의료기기 IEC 62304, 항공 DO-178C
💡 킬러 문장: "ISO 5469는 AI의 확률론적 비결정성을 기능 안전 체계에 통합한 최초의 국제표준이다. '같은 입력, 다른 출력'이라는 AI의 본질적 특성을 안전 공학이 수용하는 패러다임 전환을 의미한다."
ISO/IEC 23894
인공지능 위험관리 지침 (AI Risk Management) · ISO 31000 연계 · 2023년 제정
개념
정의: AI 시스템의 수명주기 전반에 걸쳐 위험을 식별·분석·평가·대응하는 방법론을 제공하는 지침 표준. ISO 31000(리스크 관리 원칙)의 AI 특화 확장판

핵심 특징: 요구사항(Shall) 아닌 지침(Should) 형태로 제공 — 다양한 조직 맥락에 유연 적용. AI 특유의 위험(편향·불투명성·적대적 공격)을 기존 위험관리 프레임워크에 통합하는 방법 제시
개념도 — AI 위험관리 프로세스 (ISO 31000 기반)
맥락 설정 (Context Establishment)
AI 목적·이해관계자·수명주기 단계·적용 영역 정의
식별
AI 위험
열거
분석
가능성×
영향 추정
평가
위험 수준
우선순위
대응
회피·감소
전가·수용
↕ 소통·협의 + 모니터링·검토 (전 단계에 걸쳐 지속)
주요 구성 요소 — AI 특유 위험 유형 "편불적의시"
두문자위험 유형설명대응 방안
편향 위험 (Bias)학습 데이터·알고리즘·출력에서 특정 집단 불공정 결과. Amazon 채용 AI, COMPAS 사례대표성 데이터 확보, 공정성 지표 측정, 정기 편향 감사
불투명성 위험 (Opacity)AI 의사결정 과정이 블랙박스로 설명 불가. 규제 컴플라이언스·사용자 신뢰 저해XAI 기법(LIME·SHAP) 적용, 모델 카드 작성
적대적 공격 (Adversarial)의도적으로 조작된 입력으로 AI 오작동 유도. 자율주행 표지판 공격, 챗봇 탈옥적대적 훈련, 입력 검증, 하네스 가드레일
의존성 위험 (Dependency)AI 시스템 장애 시 연쇄 영향. AI 단일 장애점(SPOF), 공급망 AI 의존페일세이프 설계, 인간 폴백, 다중화
시간적 위험 (Temporal)배포 후 환경 변화로 모델 성능 저하(데이터 드리프트). 훈련 시 정렬된 모델도 배포 후 붕괴지속 모니터링, 주기적 재학습, 드리프트 감지
ISO 31000 vs ISO 23894 비교 및 EU AI Act 연계
ISO 31000(일반) vs ISO 23894(AI 특화)
공통: 위험관리 원칙·프레임워크·프로세스
31000 적용 범위: 모든 조직·모든 위험
23894 추가: AI 특유 위험 카탈로그, 수명주기별 위험 체크리스트, AI 이해관계자 맥락

관계: 23894는 31000을 AI에 맞게 특화·심화한 보완 표준 — 대체 불가
EU AI Act 연계 — 위험 기반 규제와 정렬
EU AI Act 4단계: 금지·고위험·제한·최소
23894 역할: 고위험 AI의 "위험관리 시스템" 구축에 23894 프로세스 활용

실무 흐름: 23894로 위험 식별 → EU AI Act 요건 매핑 → 42001로 경영시스템 통합
💡 킬러 문장: "ISO 23894는 AI의 위험을 '관리할 수 없는 것'이 아닌 '체계적으로 다룰 수 있는 것'으로 전환하는 방법론이다. 편향·불투명성·적대적 공격이라는 AI 고유 위험을 기존 위험관리 언어로 번역한 표준이다."
ISO/IEC 24028
인공지능 신뢰성 개요 (AI Trustworthiness Overview) · 2022년 제정
개념
정의: AI 시스템의 신뢰성(Trustworthiness)을 구성하는 속성과 이를 저해하는 위협을 포괄적으로 정의하는 개요 표준(Overview Standard). 다른 AI 표준들의 개념적 기반 역할

핵심 개념: AI 신뢰성 = 견고성 + 투명성 + 설명가능성 + 공정성 + 안전성 + 프라이버시의 복합 속성. 어느 하나만으로는 신뢰할 수 없음
개념도 — AI 신뢰성 6대 속성
AI Trustworthiness (신뢰성)
견고성
Robustness
투명성
Transparency
설명가능성
Explainability
공정성
Fairness
안전성
Safety
프라이버시
Privacy
↕ 신뢰성 저해 위협: 적대적 공격·편향·데이터 중독·모델 역공학
주요 구성 요소 — 6대 신뢰성 속성 상세
속성정의저해 위협대응 기술·표준
견고성예상치 못한 입력·환경 변화에도 안정적 성능 유지적대적 예제, OOD 데이터, 데이터 드리프트적대적 훈련, 입력 정제, ISO 5469
투명성AI 시스템·프로세스·의도를 이해관계자가 이해 가능블랙박스 모델, 의사결정 불가시모델 카드, 시스템 문서화, ISO 42001
설명가능성AI 특정 결정에 대한 이유를 인간이 이해 가능복잡 신경망, 설명 부재LIME·SHAP·GRAD-CAM (XAI 기법)
공정성특정 집단에 불공정한 편향 없이 일관된 결과 제공학습 데이터 편향, 알고리즘 편향공정성 지표, 편향 감사, ISO 23894
안전성의도치 않은 해로운 결과 방지 및 통제 가능Reward Hacking, 목표 오명세AI Alignment, Guardrails, ISO 5469
프라이버시AI 학습·추론 과정에서 개인정보 보호학습 데이터 복원, 멤버십 추론 공격차분 프라이버시, 연합 학습, GDPR
신뢰성 저해 위협 및 타 표준과의 위치
신뢰성 저해 4대 위협
적대적 공격: 입력 조작으로 모델 오판 유도 (견고성·안전성 저해)
데이터 중독: 훈련 데이터 오염으로 백도어 삽입 (공정성·안전성 저해)
모델 역공학: 모델 구조·학습 데이터 탈취 (프라이버시·투명성 저해)
분포 이탈: 배포 후 환경 변화로 성능 저하 (견고성·공정성 저해)
AI 표준 생태계에서의 위치
24028 역할: AI 신뢰성 개념의 공통 언어 정의 — 다른 표준의 기반

42001과 관계: 42001이 "어떻게 관리할 것인가"를 다루면, 24028은 "무엇을 달성해야 하는가"를 정의

23894와 관계: 24028의 신뢰성 속성이 23894의 위험 식별 출발점

5469와 관계: 안전성·견고성 속성의 기능 안전 구현체
💡 킬러 문장: "ISO 24028은 'AI를 신뢰할 수 있다'는 말이 무엇을 의미하는지 정의한 표준이다. 6개 속성이 동시에 충족될 때, 비로소 AI는 사회적 신뢰를 얻을 수 있다."
4대 AI ISO 표준 종합 비교표
비교 기준 ISO 42001
경영시스템
ISO 5469
기능 안전
ISO 23894
위험관리
ISO 24028
신뢰성
문서 유형 요구사항 (Shall)
→ 인증 가능
요구사항 (Shall)
→ 인증 연계
지침 (Should)
→ 인증 불가
개요 (Overview)
→ 기반 표준
초점 조직 경영·거버넌스 안전 관련 시스템 위험 식별·대응 신뢰성 속성 정의
연계 모표준 ISO 9001 / 27001
(HLS 구조)
IEC 61508
(기능 안전)
ISO 31000
(위험관리)
독립 (타 표준 기반)
적용 대상 AI 개발·사용 조직 전체 안전 관련 AI 시스템 AI 관련 의사결정자 AI 설계자·정책입안자
핵심 산출물 AIMS 인증서
내부 감사 보고서
안전 케이스
SIL 근거 문서
위험 등록부
위험 대응 계획
신뢰성 속성 체크리스트
제정 연도 2023 2024 2023 2022
EU AI Act 연계 고위험 AI 관리체계 고위험 AI 안전 근거 위험관리 시스템 신뢰성 요건 정의
표준 간 관계도 — 역할 분담
ISO 24028 — 신뢰성의 "무엇"을 정의 (공통 기반)
ISO 23894
위험의 "무엇"을
식별·평가
ISO 5469
안전 시스템에서
"어떻게" 보증
ISO 42001
조직 전체가
"어떻게" 관리
+ EU AI Act (법적 강제) + 한국 AI 기본법
기술사 시험 출제 전략
1교시 단독 출제 대응
답안 구조: 정의(2줄) → 개념도(필수) → 주요 구성요소 표 → 연관 표준 연결 → 킬러 문장

개념도 암기:
42001 → PDCA 4단계 박스 흐름
5469 → V-모델 좌우 대칭 구조
23894 → 위험관리 4단계 화살표
24028 → 6대 신뢰성 속성 격자
2교시 복합형 연결 포인트
AI 윤리 + 24028: 공정성·투명성이 연결
AI Alignment + 5469: 안전성·비결정성이 연결
하네스 엔지니어링 + 42001: 가드레일·경영시스템 연결
EU AI Act + 23894: 위험 기반 규제가 연결

킬러 구조: "24028이 목표 → 23894가 위험 식별 → 5469가 안전 보증 → 42001이 조직 통합"
💡 4표준 통합 킬러 문장: "ISO 24028이 AI 신뢰성의 목표를 정의하고, ISO 23894가 그 저해 위험을 식별하며, ISO 5469가 안전 관련 시스템에서 이를 공학적으로 보증하고, ISO 42001이 조직 경영 차원에서 전체를 통합한다. 이 4표준이 AI 거버넌스의 기술적 기반이다."