표 1 AI 도입 윤리적 쟁점 국제 논의 내용 정리

문서 UNESCO AI 윤리권고 (2022) EU AI Act (2024) OECD AI 원칙 (2019)
초점 AI 생명주기 전반에 걸쳐 AI의 윤리적 원칙, 가치, 영향에 대한 국제적인 표준 설정. 인간 중심적, 윤리적 AI 개발 및 사용 촉진 EU 내 AI 시스템의 시장 출시, 서비스 개시 및 사용에 대한 통일된 법적 프레임워크 수립. 건강, 안전, 기본권, 민주주의 보호와 혁신 촉진. 위험 기반 규제 접근 방식(고위험 시스템 및 금지된 관행) AI 정책에 대한 전문 지식, 조언, 국제 논의 및 정보 교환 촉진. 신뢰할 수 있는 AI 채택을 위한 정책 환경 조성
윤리적 쟁점 ① 공정성·포용성(편향, 차별, 불평등, 배제), ② 투명성· 설명가능성(블랙박스 문제), ③ 책임성·신뢰성(인간 존엄성, 인권 보호), ④ 데이터 거버넌스·프라이버시(사생활 침해, 비차별 원칙) 포괄적 위험 대응: 기본권 침해, 편향 및 차별, 개인정보 침해, 건강·안전 위험, 조작·취약성 악용, 불법 감시, 시스템적 위험(GPAI) 등 개발협력 맥락의 주요 윤리적 쟁점들을 포괄적으로 다룸 신뢰성 및 정책 환경: 신뢰할 수 있는 AI 채택의 중요성 강조. AI 사용의 기회와 위험 요소를 균형적으로 고려
요구 사항/메커 니즘 윤리적 거버넌스 원칙: AI 생명주기 전반 인권 존중, 비례성·피해 최소화 원칙, AI 사용 정당화, 중대 결정 시 인간의 최종 판단권, 사회적 점수·대규모 감시 금지, 투명성·설명가능성 확보, 책임성·감독·영향평가·감사·추적성 보장, 데이터 거버넌스·품질·보안 강화 위험 기반 규제 체계: 금지된 AI 관행 규정, 고위험 AI 시스템 분류 및 엄격한 의무사항(위험 관리, 데이터 거버넌스, 기술 문서화, 투명성 확보, 인간 감독, 정확성·견고성·사이버 보안 등), GPAI 모델 추가 의무, 규제 샌드박스, AI 리터러시, 거버넌스 구조 확립 정책 거버넌스: AI 이해 증진, 이해관계자 참여 확대, 명확한 정보 제공, 정책 환경 촉진(신속성, 실험적 접근, 결과 기반 평가, 다자간 협력)
시사점 윤리 원칙 기반: 인간 중심적 접근, 피해 최소화(do no harm), 인권 존중 원칙은 개발협력의 핵심 가치와 부합. 공정성, 투명성, 책임성, 데이터 거버넌스 등 개발협력 AI 활용의 4대 윤리적 쟁점에 대한 포괄적 가이드라인 제시 위험 기반 규제: 고위험 AI 시스템에 대한 엄격한 요구사항(위험 관리, 투명성, 인간 감독 등)은 개발협력 맥락에서 공정성과 책임성 확보를 위한 구체적 지침 제공. 금지된 AI 관행 규정은 취약 계층 보호에 직접적 시사점 정책 환경 조성: 신뢰할 수 있는 AI 채택을 위한 정책 프레임워크 제공. 국제 협력 및 정보 교환 체계는 개발협력 사업의 윤리적 거버넌스 구축에 제도적 기반 제공
AI, Artificial Intelligence; GPAI, Global Partnership on Artificial Intelligence.