초점 | AI 생명주기 전반에 걸쳐 AI의 윤리적 원칙, 가치, 영향에 대한 국제적인 표준 설정. 인간 중심적, 윤리적 AI 개발 및 사용 촉진 | EU 내 AI 시스템의 시장 출시, 서비스 개시 및 사용에 대한 통일된 법적 프레임워크 수립. 건강, 안전, 기본권, 민주주의 보호와 혁신 촉진. 위험 기반 규제 접근 방식(고위험 시스템 및 금지된 관행) | AI 정책에 대한 전문 지식, 조언, 국제 논의 및 정보 교환 촉진. 신뢰할 수 있는 AI 채택을 위한 정책 환경 조성 |
윤리적 쟁점 | ① 공정성·포용성(편향, 차별, 불평등, 배제), ② 투명성· 설명가능성(블랙박스 문제), ③ 책임성·신뢰성(인간 존엄성, 인권 보호), ④ 데이터 거버넌스·프라이버시(사생활 침해, 비차별 원칙) | 포괄적 위험 대응: 기본권 침해, 편향 및 차별, 개인정보 침해, 건강·안전 위험, 조작·취약성 악용, 불법 감시, 시스템적 위험(GPAI) 등 개발협력 맥락의 주요 윤리적 쟁점들을 포괄적으로 다룸 | 신뢰성 및 정책 환경: 신뢰할 수 있는 AI 채택의 중요성 강조. AI 사용의 기회와 위험 요소를 균형적으로 고려 |
요구 사항/메커 니즘 | 윤리적 거버넌스 원칙: AI 생명주기 전반 인권 존중, 비례성·피해 최소화 원칙, AI 사용 정당화, 중대 결정 시 인간의 최종 판단권, 사회적 점수·대규모 감시 금지, 투명성·설명가능성 확보, 책임성·감독·영향평가·감사·추적성 보장, 데이터 거버넌스·품질·보안 강화 | 위험 기반 규제 체계: 금지된 AI 관행 규정, 고위험 AI 시스템 분류 및 엄격한 의무사항(위험 관리, 데이터 거버넌스, 기술 문서화, 투명성 확보, 인간 감독, 정확성·견고성·사이버 보안 등), GPAI 모델 추가 의무, 규제 샌드박스, AI 리터러시, 거버넌스 구조 확립 | 정책 거버넌스: AI 이해 증진, 이해관계자 참여 확대, 명확한 정보 제공, 정책 환경 촉진(신속성, 실험적 접근, 결과 기반 평가, 다자간 협력) |
시사점 | 윤리 원칙 기반: 인간 중심적 접근, 피해 최소화(do no harm), 인권 존중 원칙은 개발협력의 핵심 가치와 부합. 공정성, 투명성, 책임성, 데이터 거버넌스 등 개발협력 AI 활용의 4대 윤리적 쟁점에 대한 포괄적 가이드라인 제시 | 위험 기반 규제: 고위험 AI 시스템에 대한 엄격한 요구사항(위험 관리, 투명성, 인간 감독 등)은 개발협력 맥락에서 공정성과 책임성 확보를 위한 구체적 지침 제공. 금지된 AI 관행 규정은 취약 계층 보호에 직접적 시사점 | 정책 환경 조성: 신뢰할 수 있는 AI 채택을 위한 정책 프레임워크 제공. 국제 협력 및 정보 교환 체계는 개발협력 사업의 윤리적 거버넌스 구축에 제도적 기반 제공 |