특별기고

국제개발협력에서 AI(Artificial Intelligence) 활용을 위한 윤리적 거버넌스 체계 탐색: KOICA(Korea International Cooperation Agency) 사업을 중심으로

김우영1,*, 전지현2
Wooyoung Kim1,*, Jihyun Jeon2
Author Information & Copyright
1KOICA 디지털전환·정보화팀 대리
2KOICA 평가실 대리
1Assistant Manager, Digital Transformation and IT Operations Team
2Assistant Manager, Department of Evaluation
*Corresponding author: kwy@koica.go.kr

© Copyright 2025 Korea International Cooperation Agency. This is an Open-Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (http://creativecommons.org/licenses/by-nc/4.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.

Received: Jun 19, 2025; Accepted: Jun 19, 2025

Published Online: Jun 30, 2025

요 약

본 연구는 인공지능(Artificial Intelligence, AI) 기술이 국제개발협력 분야에 도입되며 나타나는 윤리적 도전과제에 주목하고, 한국국제협력단(KOICA, Korea International Cooperation Agency)의 사업 사례를 통해 그 실태를 분석하였다. KOICA가 인도네시아에서 추진한 AI 기반 누수관리 사업과 방글라데시의 AI 인력양성사업은 각각 기술 중심 접근과 생태계 기반 접근이라는 특성을 보이며, 각각 다른 AI 기술 도입에 따른 윤리 거버넌스 도전과제를 보여준다. 인도네시아 사례에서는 데이터 보안, 데이터 편향 및 알고리즘의 불투명성, 책임소재 불명확 등의 윤리적 이슈가 확인되었다. 방글라데시 사례에서는 수혜자의 수도권 편중에 따른 형평성 저하 및 개인정보 보호 미비 등 윤리적 이슈가 도출되었다. 두 사례는 KOICA의 AI 사업이 기술 실증을 넘어 제도, 인프라, 교육을 포함하는 종합적 생태계 접근으로 진화하고 있으나, 이에 상응하는 윤리적 대응 체계는 미비함을 보여준다. 이를 통해 본 연구는 국제개발협력에서의 AI 활용이 기술적 효과성뿐 아니라 사회적 수용성과 윤리적 책임을 전제로 해야 함을 강조하며, KOICA를 포함한 공여기관들이 실질적이고 체계적인 AI 윤리 거버넌스 구축에 착수할 필요성을 제기한다.

Abstract

This study examines the ethical challenges arising from the introduction of Artificial Intelligence (AI) in the field of international development cooperation, using case studies from the Korea International Cooperation Agency (KOICA) to analyze the current situation. Notably, KOICA’s AI-based water leakage management project in Indonesia and its AI human resource development project in Bangladesh exhibit different characteristics and demonstrate distinct ethical governance challenges associated with AI adoption. In the case of Indonesia, ethical issues such as data security, data bias and algorithmic opacity, and unclear accountability were identified. However, in the case of Bangladesh, ethical issues including equity concerns owing to the concentration of beneficiaries in the capital area were established, and the ethics of AI-based educational content were derived. These two cases illustrate that while KOICA’s AI projects are progressing beyond mere technological demonstration toward a comprehensive ecosystem approach—including institutions, infrastructure, and education—the corresponding ethical response framework remains inadequate. Through this, this study emphasizes that the use of AI in international development cooperation should be grounded not only in technological effectiveness but also in social acceptability and ethical responsibility.

Keywords: AI(Artificial Intelligence) 사업; AI 윤리 거버넌스; 디지털 ODA(Official Development Assistance); AI 기술 도입; 디지털 전환
Keywords: Artificial Intelligence (AI)-Powered Project; AI Ethical Governance; Digital Official Development Assistance (ODA)

Ⅰ. 서론

1. 연구 배경 및 필요성

최근 인공지능(Artificial Intelligence, AI) 기술은 보건, 교육, 농업 등 다양한 분야에서 혁신적 변화를 이끌고 있으며, 국제개발협력 분야에서도 그 효용성이 점차 강조되고 있다(UN System, 2024; UNDP, 2025; World Bank, 2025). 디지털 및 AI 기반 ODA(Official Development Assistance) 사업은 공적개발원조(ODA) 사업 중 디지털 기술(예: 정보통신기술, 빅데이터, 인공지능 등)을 핵심 수단으로 활용하여 개발 문제 해결을 도모하는 사업을 의미하며, 특히 AI 기반 사업은 문제 진단, 서비스 제공, 정책 결정 등 다양한 개발협력 과정에서 AI 기술이 직접적으로 설계·운영에 포함되는 경우를 포함한다(OECD, 2021).

UNDP, 세계은행(World Bank), UNESCO 등 주요 국제개발협력 기관들 또한 AI 기술을 활용한 ODA 사업을 적극적으로 시도하고 있으며, 이는 국제개발의 새로운 패러다임 전환을 보여주는 중요한 흐름이라 할 수 있다. 한국국제협력단(Korea International Cooperation Agency, KOICA) 역시 이와 같은 흐름에 맞춰 디지털 및 AI 기반 ODA 사업을 추진하고 있으며, 적용 영역과 시도가 점차 확대되는 추세이다.

그러나 AI 기술의 도입과 활용은 알고리즘 편향, 데이터 프라이버시 침해, 책임 소재 불분명, 수원국 맥락 간과, 선진국과 개도국 간의 AI 준비성 격차 및 이로 인한 디지털 격차 심화 가능성(Cazzaniga et al., 2024) 등 다양한 윤리적·사회적 문제를 수반한다(UNESCO, 2022). 이러한 윤리적 문제는 단순 기술적 오류가 아닌, 수원국 주민의 권리 침해, 사업 실패, 기관의 신뢰도 저하로 이어질 수 있으며, 궁극적으로는 개발협력의 효과성을 저해할 수 있다. 예컨대, 선진국 데이터를 기반으로 훈련된 AI 알고리즘은 젠더 편견이나 소수자 차별을 재생산함으로써 SDG(Sustainable Development Goals) 5(성평등) 달성을 방해할 수 있고(Tschopp et al., 2023; UNESCO, 2022), 첨단 AI 농기계는 소농의 접근성을 배제함으로써 SDG 2(기아 종식) 실현에 장애가 될 수 있다(IFC, 2020).

이러한 문제 인식에 따라, 국제사회는 AI 기술의 책임 있는 활용을 위한 다양한 윤리 원칙과 가이드라인을 제시해 왔다. 대표적으로 UNESCO의 『인공 지능 윤리 권고』(UNESCO, 2022), OECD의 『AI 원칙』(OECD, 2019)은 인권, 공정성, 투명성, 안전성, 책임성을 핵심 원칙으로 강조하고 있다. 그러나 국내의 경우, 특히 국제개발협력 맥락에서 AI 활용과 함께 발생할 수 있는 윤리적 문제에 대한 체계적인 분석과 제도적 대응 방안 마련은 아직 초기 단계에 머물러 있다. KOICA의 경우에도 AI 기반 ODA 사업의 추진은 확대되고 있으나, 이를 관리·감독할 수 있는 체계적인 ‘AI 윤리 거버넌스’ 체계는 아직 존재하지 않는다.

2. 연구 목적 및 질문

이러한 배경하에, 본 연구는 KOICA의 디지털 및 AI 기반 ODA 사업 사례를 중심으로 AI 기술의 활용 효과와 그 과정에서 발생할 수 있는 윤리적 문제를 체계적으로 분석하고, 이를 관리하기 위한 AI 윤리 거버넌스 체계를 제안하고자 한다. 본 연구의 분석 대상은 2017년부터 2025년까지 KOICA가 추진한 또는 추진 예정인 AI 관련 사업 및 전략 문서, 실행 계획을 포함한다(법률신문, 2025). 특히 본 연구는 2017년부터 2025년까지 추진된 KOICA의 디지털 및 AI 기반 ODA 사업 사례를 중심으로, AI 기술이 ODA 사업에서 어떻게 활용되고 있으며, 그 활용이 사업 성과와 지속가능성에 어떠한 영향을 미치는지 분석한다. 동시에, AI 도입 과정에서 나타난 알고리즘 편향, 개인정보 침해, 디지털 소외 등의 윤리적 위험을 진단하고, 앞으로 구축될 KOICA의 AI 윤리 거버넌스 체계에 제언사항을 남긴다.

본 연구는 단순 비교분석을 넘어, Strauss & Corbin(1998)의 근거이론(grounded theory) 접근을 활용하여 수집된 사례 자료로부터 핵심 개념과 범주를 도출하고, 이들을 연결하여 국제개발협력 맥락에서의 윤리적 AI 거버넌스 모델을 귀납적으로 구성하고자 한다. Strauss & Corbin(1998)이 제안한 근거이론은 경험적 자료로부터 이론을 도출하는 귀납적 방법론으로, ‘개방코딩–축코딩–선택코딩’의 분석 절차를 통해 핵심 범주를 도출하고 범주 간 관계를 구조화하는 데 적합하다. 특히 국제개발협력과 같은 맥락 의존적 영역에서 현장 기반의 윤리 이슈를 구조화하는 데 유용하다. 이러한 분석을 통해, KOICA를 포함한 국내 국제개발협력기관이 향후 AI 기반 사업을 추진할 때 윤리적 기준과 제도적 기반을 어떻게 설계할 수 있을지에 대한 실천적 시사점을 제공한다.

3. 개념 정의

본 연구에서 사용하는 주요 개념은 다음과 같이 정의된다.

1) 인공지능(Artificial Intelligence, AI) 기술

인공지능(AI)은 인간의 지능적 기능—예컨대 학습, 추론, 문제해결, 언어 이해 및 의사결정—을 모방하거나 이를 자동화하는 컴퓨터 기반 기술을 포괄한다. 특히 본 연구에서는 기계학습(machine learning), 딥러닝(deep learning), 자연어처리(Natural Language Processing, NLP), 컴퓨터 비전, 생성형 AI(Generative AI) 등 다양한 기술이 포함된 AI 응용기술 전반을 AI 기술로 간주하며, 이는 단일 기술의 도입뿐 아니라 AI를 활용한 시스템 구축, 자동화 플랫폼, 데이터 기반 의사결정 지원 등도 포함한다.

2) KOICA (Korea International Cooperation Agency) AI(Artificial Intelligence) 활용 사업

KOICA가 추진하는 공적개발원조(ODA) 사업 중 AI 기술이 주요 구성요소로 기획·설계·운영에 포함되거나, AI 관련 역량 강화 및 생태계 구축을 직접적 목표로 하는 사업을 지칭한다. 여기에는 (i) AI 기반 기술의 직접적 도입 및 실증(예: AI 기술 기반 누수 지점 예측 시스템), (ii) AI 인재 양성 및 관련 교육과정 개발, (iii) AI 관련 제도·정책 지원, 데이터 인프라 구축 등이 포함되며, 사업 유형은 민관협력, 다자협력사업, 연수 사업 등 다양한 방식으로 구성될 수 있다.

Ⅱ. 이론적 고찰 및 선행 연구

1. 국제개발협력 사업과 AI(Artificial Intelligence) 기술의 활용

인공지능(AI)은 대규모 데이터를 기반으로 복잡한 패턴을 학습하고 예측하며, 의사결정을 자동화하는 기술로서 최근 국제개발협력 분야에서 활용이 급증하고 있다. UN(United Nations)의 「Activities on AI」 보고서에 따르면, AI 관련 프로젝트를 수행하는 UN 산하 국제기구의 수는 2022년 40개(281개 프로젝트)에서 2023년 47개(408개 프로젝트)로 증가하며, 1년 만에 약 45%의 성장을 기록했다. 이러한 확산은 개발 목표 달성의 수단으로 AI가 점차 주목받고 있음을 보여준다.

KOICA 역시 이러한 국제적 흐름에 발맞추어 인공지능(AI) 기술을 개발협력사업에 본격적으로 도입하기 시작했다. KOICA의 AI 활용은 2017년을 기점으로 민관협력사업(PublicPrivate Partnership, PPP)을 중심으로 전개되었으며, 초기에는 주로 보건의료 분야에서 국내 기술기업과의 협력을 통해 AI 기술을 시범 적용하는 방식으로 추진되었다(<부록 1> 참조). 예를 들어, 딥러닝 기반 결핵 진단 솔루션(헬스허브), 성병 진단을 위한 AI 판독 시스템(뷰노코리아), 스마트폰과 현미경을 결합한 말라리아 진단 기기(스마트엠디) 등의 개발 및 보급이 대표적인 사례이다. 이러한 초기 사업들은 혁신 기술을 활용해 개발도상국의 의료 접근성 문제를 해결하려는 시도로 평가되며, 이후 KOICA의 AI 기술 활용이 교육, 행정, 환경 등 다양한 분야로 확산되는 기반을 마련하였다.

2021년 이후, KOICA는 시민사회 협력, 연수, 국별협력 등 다양한 부서가 주체가 되어 인공지능(AI) 기술 적용을 적극 시도하고 있으며, 이로 인해 활용 영역이 빠르게 확장되고 있다. 특히 아시아 권역 내 정보통신기술(Information and Communications Technology, ICT) 기반이 비교적 잘 갖추어진 국가들을 중심으로 AI 기술의 시범 적용이 활발하게 이루어지고 있다. 예를 들어, 인도네시아에서는 2021년부터 2024년까지 2단계에 걸쳐 ‘지능형 누수관리 시스템 구축 사업’을 추진하며, AI 기반 누수 예측 알고리즘과 모니터링 플랫폼을 인도네시아 수도국 시스템과 통합하여 수자원 관리의 효율성을 제고하였다(한국국제협력단, 2025b). 또한 방글라데시에서 2026년부터 추진되는 ‘AI 혁신기술 산업인재 양성사업’은 KOICA 최초의 대규모 AI 전문인력 양성 프로젝트로, 단순한 기술 이전을 넘어 인적 역량 개발과 정책 연계에 초점을 둠으로써 KOICA의 AI 사업 접근 방식이 기술 중심에서 현지 인적 역량 개발과 제도 연계로 진화하고 있음을 시사한다.

2. AI(Artificial Intelligence) 도입에 따른 윤리적 쟁점

국제개발협력 분야에서 인공지능(AI) 기술의 활용이 확대됨에 따라, 그 잠재적 혜택뿐만 아니라 윤리적 위험에 대한 우려 또한 함께 증가하고 있다. AI 시스템은 의도하지 않게 기존의 사회적 불평등을 심화시키거나, 새로운 형태의 위험을 초래할 수 있는 잠재성을 내포하고 있다. 특히 개발협력 사업은 종종 제도·인프라가 취약한 환경에 놓인 개인이나 공동체를 대상으로 하기 때문에, 기술 도입에 있어 윤리적 고려는 더욱 핵심적인 요소로 간주되어야 한다. UNESCO 인공지능 윤리 권고를 비롯한 국제 논의에 따르면, 국제개발협력 맥락에서 AI를 활용할 때 발생할 수 있는 주요 윤리적 쟁점은 다음과 같이 정리될 수 있다(EU, 2024; OECD, 2019; UNESCO, 2022).

첫째, 공정성(fairness) 및 포용성(inclusiveness) 문제이다. AI 시스템은 학습 데이터에 내재된 편향을 그대로 반영하거나 증폭시킬 수 있다. 예를 들어, 특정 인종이나 성별 데이터가 부족한 상태에서 개발된 안면 인식 기술은 해당 집단에 대한 인식률이 현저히 떨어지거나, 특정 질병 진단 AI가 특정 인구 집단의 의료 데이터만을 기반으로 학습되었을 경우 다른 집단에게는 부정확한 진단을 내릴 위험이 있다.

둘째, 투명성(transparency) 및 설명가능성(explainability)의 문제이다. 딥러닝과 같은 복잡한 알고리즘 기반 모델은 그 의사결정 과정이 일반적으로 불투명하며, ‘블랙박스(black box)’ 문제로 지적된다. 이는 AI가 특정 개인의 대출 신청을 거절하거나 특정 지역을 고위험 지역으로 분류하는 등 중대한 결정을 내리는 상황에서, 그 판단의 근거를 명확하게 제시하지 못함을 의미한다. 설명이 불가능한 결정은 결과의 정당성을 확보하기 어렵게 만들며, 오류 발생 시 원인 진단과 시정 조치 또한 제한된다. 이러한 특성은 개발협력 맥락에서 더욱 심각한 문제를 야기할 수 있으며, 수원국의 신뢰와 수용성을 저해할 우려가 있다.

셋째, 책임성(accountability) 및 신뢰성(reliability)의 문제이다. AI 시스템이 오류를 일으키거나 예기치 못한 피해를 초래했을 때, 해당 결과에 대한 책임 주체를 명확히 규명하기 어려운 경우가 많다. 이는 AI 개발자, 데이터 제공자, 시스템 운영자, 최종 사용자 등 복수의 이해관계자가 복잡하게 얽혀 있는 구조적 특성에 기인한다. 특히 공여기관, 수원국 정부, 민간 기술 기업 등 다국적·다기관 협력이 필수적인 개발협력 사업에서는 책임의 경계가 더욱 불분명해지기 쉽다. 이러한 책임 회피 가능성은 피해 구제의 어려움뿐만 아니라 사업 전반에 대한 신뢰성을 저하시킬 수 있으며, 장기적으로는 수원국 내 사업 정착에도 부정적인 영향을 미칠 수 있다.

넷째, 데이터 거버넌스(data governance) 및 프라이버시 보호(privacy protection) 문제이다. AI 시스템은 학습과 의사결정의 정확도를 높이기 위해 대량의 데이터를 필요로 하며, 그 과정에서 개인의 건강 정보, 생체 정보, 위치 정보 등 민감한 개인정보가 수집·활용될 수 있다. 그러나 다수의 개발도상국은 개인정보보호 관련 법·제도가 미비하거나, 제도가 있더라도 실효적 집행력이 부족한 경우가 많아, 데이터의 무분별한 수집과 활용으로 인한 프라이버시 침해 가능성이 매우 높다(UNESCO, 2024). 특히 수원국 주민의 명시적 동의 없이 데이터가 처리될 경우, 정보주체의 권리 침해 및 국제 인권 기준 위반 논란으로 이어질 수 있으며, 이는 사업의 정당성과 지속가능성에 심각한 위협이 된다.

이러한 윤리적 쟁점들은 인공지능(AI) 기술이 국제개발협력 분야에서 긍정적인 역할을 수행하기 위해 반드시 해결되어야 할 선결 과제들이다. 기술의 잠재력에 대한 낙관적 기대에만 의존할 것이 아니라, 발생 가능한 위험 요소들을 사전에 식별하고 이에 대응할 수 있는 구조적 장치가 마련되어야 한다.

이러한 대응의 핵심은 ‘윤리적 거버넌스’의 확립이다. 본 연구에서 ‘윤리적 거버넌스’란 ODA 사업 기획, 추진, 평가 전 주기에 걸쳐 윤리 원칙(예: 공정성, 투명성, 책임성, 프라이버시 보호 등)이 실질적으로 반영되고 준수되도록 보장하는 공식적·비공식적 규범, 제도, 절차 및 실행 체계를 의미한다. 이는 AI 기술의 확산 속도에 대응하여 윤리적 기준을 정립하고, 실제 개발협력 현장에서의 이행 가능성과 수용성을 높이는 핵심적인 기반으로 작용한다. 특히 공공성을 중시하는 개발협력 맥락에서는 윤리적 거버넌스의 부재가 단지 기술적 결함에 그치지 않고, 사업의 정당성, 수원국의 신뢰, 그리고 인권 침해로까지 이어질 수 있다는 점에서 그 중요성이 더욱 강조된다.

3. 국제사회 및 한국의 AI(Artificial Intelligence) 윤리 거버넌스 동향

글로벌 차원에서 여러 국제기구들은 AI 윤리에 대한 보편적 원칙과 권고안을 제시하며 국제적 합의를 형성해 나가고 있다. 대표적으로 유엔교육과학문화기구(UNESCO)는 2021년 11월, 194개 회원국의 만장일치로 세계 최초의 글로벌 AI 윤리 기준인 「인공지능 윤리 권고(recommendation on the ethics of AI)」를 채택하였다. 해당 권고안은 법적 구속력은 없으나 강력한 국제적 규범력을 갖추고 있으며, 인권과 인간 존엄성 보호를 핵심 가치로 설정하고 있다. 구체적으로는 ▲ 비례성 및 피해 방지, ▲ 안전과 보안, ▲ 공정성 및 비차별, ▲ 지속가능성, ▲ 프라이버시 권리 및 데이터 보호, ▲ 인간의 감독 및 결정, ▲ 투명성과 설명가능성, ▲ 책임성과 문책성, ▲ 인식 및 문해력, ▲ 다중 이해관계자 및 적응형 거버넌스와 협력 등 총 10가지 원칙을 제시하고 있다(UNESCO, 2022).

유럽연합(EU)을 비롯한 지역 및 국가 차원에서도 AI 윤리 규범화 노력이 활발하게 진행되고 있다. EU는 2019년 ‘신뢰할 수 있는 AI를 위한 윤리 지침’ 발표에 이어, 2024년 세계 최초로 포괄적이고 법적 구속력을 지닌 AI 규제법인 「인공지능법」(AI act)을 최종 승인하였다(European Union, 2024). AI Act는 AI 시스템이 초래할 수 있는 위험 수준에 따라 차등적인 규제를 적용하는 ‘위험 기반 접근법(risk-based approach)’을 채택한 것이 특징이다. 즉, ‘수용 불가능한 위험’을 초래하는 AI는 원칙적으로 금지하고, 의료기기, 자율주행차, 핵심 인프라 관리, 교육 및 직업 훈련, 채용, 신용 평가 등 ‘고위험(high-risk)’으로 분류되는 AI 시스템에 대해서는 시장 출시 전에 엄격한 요건을 충족하고 적합성 평가를 받도록 의무화했다. 반면, 챗봇과 같이 ‘제한된 위험’을 가진 AI는 사용자에게 AI와 상호작용하고 있음을 알리는 투명성 의무를 부과하고, ‘최소 위험’ AI는 별다른 규제를 적용하지 않는다(European Union, 2024).

경제협력개발기구(OECD)는 2019년 5월, 회원국 및 파트너 국가들의 합의를 바탕으로 「인공지능에 관한 OECD 이사회 권고」(OECD Recommendation of the Council on Artificial Intelligence, 통칭 ‘OECD AI 원칙’)를 발표하였다(OECD, 2019). 이는 정부 간 합의로 도출된 최초의 다자간 AI 권고안으로서, ‘신뢰할 수 있는 AI(trustworthy AI)’ 구현을 목표로 한다. OECD 권고는 AI 시스템이 준수해야 할 5가지 가치 기반 원칙으로 ▲ 포용적 성장, 지속가능한 발전 및 웰빙 ▲ 인간 중심 가치 및 공정성, ▲ 투명성 및 설명가능성, ▲ 견고성, 안전성 및 보안성, ▲ 책임성(accountability)을 제시하였다(OECD, 2019, <표 1>).

표 1. AI 도입 윤리적 쟁점 국제 논의 내용 정리
문서 UNESCO AI 윤리권고 (2022) EU AI Act (2024) OECD AI 원칙 (2019)
초점 AI 생명주기 전반에 걸쳐 AI의 윤리적 원칙, 가치, 영향에 대한 국제적인 표준 설정. 인간 중심적, 윤리적 AI 개발 및 사용 촉진 EU 내 AI 시스템의 시장 출시, 서비스 개시 및 사용에 대한 통일된 법적 프레임워크 수립. 건강, 안전, 기본권, 민주주의 보호와 혁신 촉진. 위험 기반 규제 접근 방식(고위험 시스템 및 금지된 관행) AI 정책에 대한 전문 지식, 조언, 국제 논의 및 정보 교환 촉진. 신뢰할 수 있는 AI 채택을 위한 정책 환경 조성
윤리적 쟁점 ① 공정성·포용성(편향, 차별, 불평등, 배제), ② 투명성· 설명가능성(블랙박스 문제), ③ 책임성·신뢰성(인간 존엄성, 인권 보호), ④ 데이터 거버넌스·프라이버시(사생활 침해, 비차별 원칙) 포괄적 위험 대응: 기본권 침해, 편향 및 차별, 개인정보 침해, 건강·안전 위험, 조작·취약성 악용, 불법 감시, 시스템적 위험(GPAI) 등 개발협력 맥락의 주요 윤리적 쟁점들을 포괄적으로 다룸 신뢰성 및 정책 환경: 신뢰할 수 있는 AI 채택의 중요성 강조. AI 사용의 기회와 위험 요소를 균형적으로 고려
요구 사항/메커 니즘 윤리적 거버넌스 원칙: AI 생명주기 전반 인권 존중, 비례성·피해 최소화 원칙, AI 사용 정당화, 중대 결정 시 인간의 최종 판단권, 사회적 점수·대규모 감시 금지, 투명성·설명가능성 확보, 책임성·감독·영향평가·감사·추적성 보장, 데이터 거버넌스·품질·보안 강화 위험 기반 규제 체계: 금지된 AI 관행 규정, 고위험 AI 시스템 분류 및 엄격한 의무사항(위험 관리, 데이터 거버넌스, 기술 문서화, 투명성 확보, 인간 감독, 정확성·견고성·사이버 보안 등), GPAI 모델 추가 의무, 규제 샌드박스, AI 리터러시, 거버넌스 구조 확립 정책 거버넌스: AI 이해 증진, 이해관계자 참여 확대, 명확한 정보 제공, 정책 환경 촉진(신속성, 실험적 접근, 결과 기반 평가, 다자간 협력)
시사점 윤리 원칙 기반: 인간 중심적 접근, 피해 최소화(do no harm), 인권 존중 원칙은 개발협력의 핵심 가치와 부합. 공정성, 투명성, 책임성, 데이터 거버넌스 등 개발협력 AI 활용의 4대 윤리적 쟁점에 대한 포괄적 가이드라인 제시 위험 기반 규제: 고위험 AI 시스템에 대한 엄격한 요구사항(위험 관리, 투명성, 인간 감독 등)은 개발협력 맥락에서 공정성과 책임성 확보를 위한 구체적 지침 제공. 금지된 AI 관행 규정은 취약 계층 보호에 직접적 시사점 정책 환경 조성: 신뢰할 수 있는 AI 채택을 위한 정책 프레임워크 제공. 국제 협력 및 정보 교환 체계는 개발협력 사업의 윤리적 거버넌스 구축에 제도적 기반 제공

AI, Artificial Intelligence; GPAI, Global Partnership on Artificial Intelligence.

Download Excel Table

대한민국 정부 역시 인공지능(AI) 기술의 중요성을 인식하고, 관련 정책과 윤리 기준 마련을 위한 노력을 지속해 왔다. 정부는 ‘디지털플랫폼정부 실현계획’을 통해 AI 및 데이터 기반의 과학적 행정 구현을 강조하며(디지털플랫폼정부위원회, 2023), 초거대 AI의 도입 및 활용에 대한 범정부 차원의 전략을 수립‧추진하고 있다. 이러한 정책 기조 아래, 2024년 12월에는 AI 기술 및 산업 진흥을 위한 국가적 지원 체계와 함께 ‘고영향 인공지능’ 사업자 등에 대한 신뢰성 확보 의무를 규정하는 「인공지능 발전과 신뢰 기반 조성 등에 관한 기본법안」이 국회 본회의를 통과했다. 이는 AI 기술의 책임 있는 활용을 위한 법적 기반을 제도적으로 마련한 것으로 평가된다. 이에 더해 과학기술정보통신부를 중심으로 관계부처합동으로 2020년 「사람이 중심이 되는 인공지능(AI) 윤리기준」을 발표했다. 이 기준은 AI의 개발부터 활용에 이르는 전 과정에서 모든 사회 구성원이 참조하고 준수해야 할 기준으로, ▲인간 존엄성 원칙, ▲사회의 공공선 원칙, ▲기술의 합목적성 원칙 등 3대 기본원칙과 이를 실현하기 위한 ▲인권 보장, ▲프라이버시 보호, ▲다양성 존중, ▲침해금지, ▲공공성, ▲연대성, ▲데이터 관리, ▲책임성, ▲안전성, ▲투명성 등 10대 핵심 요건을 제시하고 있다(관계부처합동, 2020).

Ⅲ. KOICA(Korea International Cooperation Agency) 사례 분석: 인도네시아, 방글라데시 사례

본 장에서는 앞서 검토한 이론적 논의와 국제적 동향을 토대로, 한국국제협력단(KOICA)의 AI 기술 활용 현황과 윤리적 거버넌스 실태를 사례 중심으로 분석한다. 이를 위해 본 연구는 KOICA의 AI 기반 ODA 사업 중 대표적인 두 가지 사례, 1) 인도네시아 지능형 누수관리 사업과, 2) 방글라데시 AI 혁신기술 산업인재 양성사업을 분석 대상으로 선정하였다. 이 두 사업은 KOICA의 AI 활용 접근 방식이 기술 중심의 단기·소규모 프로젝트에서 출발하여 점차 인적 역량 강화와 생태계 조성을 포괄하는 장기·대규모 프로젝트로 발전해 나가는 과정을 보여준다는 점에서 KOICA AI 사업의 대표적인 전환적 사례로 판단할 수 있다. 이와 같은 사업 형태 및 규모의 변화는 II장 1절에서 논의된 KOICA의 AI 활용 확대 및 다변화 트렌드를 구체적으로 반영하는 것으로, 각기 다른 단계와 유형의 사업에서 발생하는 특유의 윤리적 쟁점과 거버넌스 과제를 도출하는 데 효과적이다(한국국제협력단, 2025a).

특히 본 장에서는 인도네시아에서 연속적으로 추진된 ‘지능형 누수관리 시스템 구축 사업’(1단계: 2021~2022, 2단계: 2022~2024)과, 방글라데시에서 2026년부터 2035년까지 장기적으로 계획된 ‘AI 혁신기술 산업인재 양성사업’을 중심 사례로 다룬다(한국국제협력단, 2022). 해당 사업들의 이해관계자를 인터뷰하고 인터뷰 결과를 근거이론(grounded theory) 방법론으로 분석해 핵심 개념과 범주를 도출한다. 이를 토대로 AI 사업 접근 방식 변화와 그에 따라 제기되는 윤리적 이슈 및 윤리적 거버넌스 구축 과제를 분석한다.

1. 인도네시아 지능형 누수관리 사업

KOICA는 인도네시아의 심각한 누수 문제 해결과 효율적인 수자원 관리를 지원하기 위해, 2021년부터 2024년(한국국제협력단, 2021)까지 두 단계에 걸쳐 민관협력사업(PPP) 형태로 AI 기반 누수관리 시스템 구축 및 고도화 사업을 추진했다(사업 이해관계자 인터뷰 결과). 1단계(지능형 누수관리 플랫폼 구축사업(2021~2022, 299백만 원))에서는 AI 기반 누수 예측 알고리즘 및 모니터링 플랫폼을 개발하여 현지 수도사업소(Perusahaan Daerah Air Minum PDAM)에 적용하는 개념검증(Proof of Concept, PoC) 사업이 진행되었다. 국내 기술기업의 알고리즘을 현지 시스템에 연동하고, 실증을 통해 기술 적용 가능성을 확인하는 데 중점을 두었다. 2단계(지능형 종합 누수관리 시스템 고도화 및 판매사업(2022~2024, 500백만 원))의 경우, 1단계 성과를 바탕으로 플랫폼의 고도화 및 판매형 모델 개발이 이루어졌다(한국국제협력단, 2024a). AI 예측 정확도 개선, 사용자 인터페이스 향상, 기술이전 교육 및 장비 보급 등을 통해 현지 수도사업자의 독립적 운영 역량을 강화하고자 하였다. 이는 초기 기술 실증 결과를 바탕으로 사업을 확장하고, 현지 수용성과 지속가능성을 높이려는 전략적 접근을 보여준다.

인도네시아 누수관리 사업은 KOICA의 초기 AI 사업 추진 방식의 특징을 잘 보여준다. 즉, ① 기술 중심적 문제 해결: AI 기술을 활용해 기존 청음 방식보다 효율적이고 정확한 누수 탐지가 가능해졌으며, 유수율 개선이라는 가시적 성과를 창출하였다(B1 인터뷰). ② 점진적·단계적 확장: PoC를 통해 기술적 타당성을 검증한 후, 성과를 바탕으로 사업을 고도화하고 확장하는 단계적 접근 방식을 취했다. ③ 민관협력 활용: 국내 기술 기업이 솔루션을 제공하고 현지 수도사업소(PDAM)와 협업을 통해 사업을 추진함으로써 기술 사업화와 개발성과 간의 연계를 시도했다.

문헌조사와 및 사업 이해관계자 인터뷰 결과에 따르면, 인도네시아 누수관리 사업은 AI 기술의 실증 및 상업화에는 성과가 있었으나, 윤리적 거버넌스 측면에서는 여러 보완 과제를 드러냈다. 첫째, 데이터 프라이버시 및 보안에 대한 고려가 미흡했다(cf,. European Union, 2024; UNESCO, 2022). 누수 예측 시스템의 고도화를 위해서는 시민의 물 사용량과 관련된 정교한 데이터 수집이 요구될 수 있으나, 해당 데이터의 수집·저장·분석 과정에서 개인정보 보호 원칙이 충실히 반영되었는지 여부는 불명확하다. 특히 클라우드 기반 저장 방식은 수원국의 정보 주권과 충돌할 가능성이 있다. 실제로 인도네시아 정부는 동 사업을 통해 확보한 데이터의 자국 내 물리적 보관을 요구했는데, 이는 해당 국가 외 클라우드 사용을 위한 협의 과정에서 갈등 요인이 될 수 있다.

둘째, 기술 접근성과 형평성의 문제이다. AI 시스템 도입으로 인한 효율성 향상이 모든 수혜자에게 동등하게 돌아가는지, 그리고 시스템 운영과 유지보수 능력의 부족으로 인해 특정 지역이나 계층이 소외되지 않는지에 대한 검토가 필요하다. 또한 AI 시스템의 핵심 알고리즘은 민간 기업이 소유하고 있으며, 수원국은 시스템의 사용자에 그치는 구조다. 이는 기술 주권과 디지털 불평등을 야기할 수 있으며, 기술의 온전한 이전이나 현지화가 제한되는 한계로 작용한다.

셋째, 책임소재의 불명확성이다. AI 예측 시스템의 오작동이나 오류로 인해 피해가 발생할 경우, KOICA, 기술 공급 기업, 수원국 정부 중 누구에게 책임이 있는지를 명확히 규정한 체계는 확인되지 않았다. 공공성을 기반으로 하는 개발협력 사업에서 기술적 결과에 대한 책임소재가 불투명한 것은 윤리적 결함이 될 수 있다.

넷째, KOICA 내 거버넌스 체계 미비 문제이다. 사업 기획 및 추진 단계에서 AI 윤리를 체계적으로 반영할 수 있는 KOICA 차원의 가이드라인, 체크리스트, 위험 평가 기준 등 제도적 장치가 부재하였다. 현장 사업 담당자는 실무 부담으로 인해 AI 사업에 대한 윤리적 고려에 충분한 시간과 자원을 할애하기 어려웠으며, 기존 인권 기반 체크리스트는 AI 특유의 기술적·사회적 위험 요소를 포착하기에는 한계가 있었다. 향후 AI 기반 ODA 사업 확대를 위해서는 기관 차원에서 윤리적 거버넌스를 반영할 수 있는 실질적인 운영 체계 마련이 필수적이다.

다섯째, 데이터 편향 및 알고리즘의 불투명성 문제가 제기된다. 본 사업에 적용된 AI는 지도학습(supervised learning) 방식에 기반하고 있으며, 이는 전문가의 라벨링 기준에 따라 알고리즘이 편향될 수 있는 구조다. 특히 라벨링의 주체가 특정 기업이나 고도 훈련된 일부 전문가에 국한될 경우, 모델이 특정 판단 기준에 과도하게 의존하게 되는 편향성 문제가 발생할 수 있다. 아울러 AI 모델의 작동 원리나 의사결정 과정이 수원국 정부나 이해관계자에게 충분히 설명되거나 공유되지 않을 경우, 알고리즘에 대한 설명 가능성 부족과 참여권 제한 문제가 동시에 발생한다. 이는 국제개발협력에서 중시되는 투명성과 책임성 원칙과 충돌하는 바, 향후 알고리즘 투명성 확보 및 수원국 참여 메커니즘 마련이 중요한 과제로 부상한다.

2. 방글라데시 AI(Artificial Intelligence) 혁신기술 산업인재 전문인력 양성사업

‘방글라데시 AI 혁신기술 산업인재 전문인력 양성사업(2026~2035/2,850만 불)은 방글라데시의 산업 수요에 부합하는 인공지능(AI) 분야 전문 인력을 체계적으로 양성하고, AI 생태계 조성과 인적자본 기반 마련을 통해 국가 디지털 전환을 가속화 하는 것을 목표로 한다. 이는 단순한 기술이전을 넘어서는 KOICA 최초의 대규모 AI 인재양성 프로젝트로 교육, 기술, 제도 전반에 걸친 통합적 접근을 통해 실질적 역량 강화를 지향한다.

사업의 주요 구성은 ① AI 및 신기술(빅데이터, 클라우드, 스마트 팩토리, 블록체인, 사이버보안 등 총 7개 분야)에 대한 교육과정 개발 및 운영, ② 다카(Dhaka) AI-Hub 센터 설립을 포함한 교육 인프라 구축 및 실습 기자재 지원, ③ 산학연 협력 체계 강화, ④ AI 관련 정책 및 제도 개선을 위한 기반 마련(마스터플랜 수립 포함 가능성) 등이다. 이를 통해 방글라데시의 산업 경쟁력 제고와 지속가능한 성장 기반 마련에 기여하고자 한다.

특히 인도네시아 사례와 비교하면, KOICA 개발협력 방식이 다음과 같이 진화하고 있음을 확인할 수 있다.

첫째, 기술 단위의 적용 중심에서 AI 생태계 조성 중심으로 전략이 전환되었다. 인도네시아 AI 사업이 특정 기술(예: 누수 탐지)의 현장 적용과 기술 검증에 초점을 맞췄다면, 방글라데시 사업은 AI 기술을 이해하고 활용하며 자발적으로 발전시킬 수 있는 인적 역량 강화, 교육 시스템 구축, 산업 연계, 국가 통계청(Bangladesh Bureau of Statistics, BBS)과의 협력을 통한 공공데이터 연계 기반 구축, 정책 및 제도 개선 등 생태계 전반을 아우르고 있다.

둘째, 사업의 장기화 및 대형화이다. 인도네시아의 단기 기술 기반 사업과 달리, 방글라데시 사업은 10년 간 2,850만 불이 투입되는 대규모 프로젝트로, 국가 차원의 AI 인력 기반을 체계적으로 구축하고자 한다. 이는 KOICA 개발협력이 구조적‧전략적으로 접근하고 있음을 보여준다.

셋째, 방글라데시 정부(ICT 부처 등), 산업계(예: 의류산업의 스마트팩토리 전환 수요, 방글라데시 소프트웨어 및 IT 서비스 협회), 공공기관(예: 통계청) 등 다층적 이해관계자의 수요를 반영한 기획이 이루어졌다는 점이다. 특히 통계청과의 협업을 통해 국가 데이터 활용 기반을 마련하고자 하는 시도는 기존 인프라와의 연계를 통해 실효성과 지속가능성을 동시에 확보하려는 전략으로 해석할 수 있다. 또한 본 사업의 주요 내용은 방글라데시 정부의 디지털 전환 전략 문서에 반영될 수 있도록 협의가 진행 중이며, 이는 국가 정책과의 정합성을 높이고 제도적 기반을 강화하는 데 기여할 것으로 기대된다.

이러한 구조적 접근은 기술의 내재화, 인재의 자립화, 생태계의 지속 가능성을 아우르는 방향으로 설계되어 있다. 그러나 장기간‧대규모로 추진되는 만큼, 다음과 같은 윤리적 쟁점에 대한 지속적인 점검과 관리가 필요하다.

첫째, 공정성과 포용성(fairness & inclusiveness)의 확보이다(cf., UNESCO, 2022; OECD, 2019). 방글라데시는 수도 다카 중심의 IT 인프라 및 인력 집중 현상이 뚜렷하여 AI 사업 역시 초기에는 다카를 중심으로 추진될 수밖에 없다. 이는 사업 효율성을 고려한 현실적인 선택이지만, 지역 간 디지털 격차 심화에 대한 우려도 존재한다. 특히 AI 기술은 고도의 응용 능력을 요구하기 때문에, 교육 신청은 개방되어 있더라도 실질적인 접근성은 초기 교육 수준, 지역, 사회경제적 배경 등에 따라 제약을 받을 수 있다. 따라서 향후 사업 확산 전략을 통해 지역 간 불균형을 해소하고, 교육생 선발 기준의 형평성을 확보하는 것이 중요하다.

둘째, 교육 내용의 윤리성 내재화이다. AI는 감시, 편향적 알고리즘, 차별 등 윤리적 논란을 수반할 수 있는 기술이다. 따라서 교육 커리큘럼에는 윤리적 기술 활용, 데이터 보호, 책임 있는 AI 개발 등이 반드시 포함되어야 한다. 현재 방글라데시에는 공식적인 AI 교육 체계가 부재한 상황이며, KOICA의 커리큘럼이 사실상 표준이 될 가능성이 높다. 그만큼 윤리적 책임도 크다.

셋째, 데이터 거버넌스와 프라이버시 보호이다(cf., UNESCO, 2022; European Union, 2024). AI 실습에서는 학습용 데이터 확보가 필수적이며, 통계청과의 협력을 통해 국가데이터를 활용할 계획이 포함되어 있다. 그러나 방글라데시는 개인정보 보호법 및 사이버 보안 제도가 미비한 상태다. 이에 따라, 데이터의 수집부터 활용, 저장, 폐기까지 전 주기적 관리 체계를 수립하고, 교육생의 개인정보도 엄격히 보호해야 한다. KOICA는 한국 기준을 참조하되, 방글라데시 현지 법제와 상황을 고려한 신중한 접근이 요구된다.

넷째, 사업 지속가능성 확보를 위한 구조적 고려가 필요하다. 양성된 인력이 산업 및 사회에 장기적으로 기여할 수 있도록, 인적자원 관리 체계와 교육 품질 유지 시스템이 필요하다. 이를 위해 우정정보통신부 내 역량 있는 전문가(공무원)를 선발하여 TOT(Training of Trainers) 수행 및 10년간 고정 배치하기로 하였으며, 이는 세계은행(World Bank, WB)의 예산으로 조성될 Software Technology Park 2 내에 설립될 AI-Hub 센터에서 운영 예정이다. AI-Hub 센터는 AI 기술을 활용한 B2B‧B2C 매칭, 취‧창업 지원 플랫폼 기능, 글로벌 기업과의 연계 기능 등을 갖추고 있다. 방글라데시 소프트웨어 및 IT 서비스 협회(Bangladesh Association of Software and Information Services, BASIS)는 해당 센터에 KOREA DESK를 공식 승인했으며, 이를 기반으로 지속 가능한 취업 지원 체계를 구축하고자 한다. 다만 실제 이행 가능성과 효과성을 담보하기 위해서는 사업 내 영향평가 외에도 정기적 점검 및 보완 체계가 필요하다.

다섯째, 본 사업은 단순한 교육 제공을 넘어, 방글라데시 사회‧경제 전반에 구조적 변화를 유발할 수 있는 파급력을 지니고 있어, 사회‧경제적 영향에 대한 사전 예측과 대응 전략 수립이 필수적이다. 본 사업은 엄브렐러 펀드 성격의 프로그램 단위로 기획되었으며, AI-Hub 센터는 단순한 교육 공간을 넘어, 방글라데시 ICT 분야의 취창업 허브 역할을 수행할 것으로 기대된다. 이미 국내외 다양한 기관으로부터 협력 요청이 이어지고 있다. 그러나 AI 인력의 대규모 양성은 노동시장 재편, 기술 격차 확대, 산업구조 변화 등 예상치 못한 사회‧경제적 영향을 유발할 수 있으며, 소외 계층에 대한 배려 부족이나 디지털 불평등 심화 등 윤리적 문제로도 이어질 수 있다. 이에 따라 사업 초기부터 사회‧경제적‧윤리적 파급 효과를 다각도로 분석하고, 긍정적 효과는 극대화하며, 부정적 영향은 최소화 할 수 있도록 완화할 수 있는 대응 전략을 수립해야 한다. 이는 사업의 수용성과 지속가능성을 높이는 핵심 요건이다.

이러한 파급 효과를 사업 초기부터 다각도로 분석하고, 긍정적 효과는 극대화하며, 부정적 영향은 최소화 할 수 있도록 완화 및 대응 전략을 수립해야 한다. 이는 사업의 수용성과 지속가능성을 높이는 핵심 요건이다.

3. 사례 비교 및 윤리적 쟁점 분석

KOICA는 2017년 이후 인공지능(AI) 기술을 공적개발원조(ODA) 사업에 도입했으며, 초기 보건 분야 중심의 소규모 파일럿 사업에서 최근에는 교육, 수자원, 산업인력 양성 등 다양한 분야로 확장되고 있다. 인도네시아 지능형 누수관리 사업과 방글라데시 AI 혁신기술 산업인재 전문인력 양성사업(장기적 생태계 조성) 사례는 KOICA의 AI 관련 ODA 접근 방식이 시간이 흐름에 따라 어떻게 진화했는지를 명확히 보여준다.

1) 기술 중심에서 생태계 기반으로: 접근 방식의 전환

인도네시아의 AI 기반 누수관리 사업(2021~2024)은 KOICA의 초기 AI ODA 접근 방식을 대표한다. 이 사업은 두 단계에 걸쳐 수도사업소(PDAM)에 AI 기반 누수 탐지 솔루션을 도입·고도화하는 것을 목적으로 하며, 기술의 현장 실증(PoC)과 상용화 가능성 탐색에 중점을 두었다. 반면, 방글라데시 AI 산업인력 양성사업(2026~2035)은 기술 도입보다 기술을 ‘이해하고 활용할 수 있는 사람’을 육성하고, 그 기반이 되는 교육 시스템·제도·데이터 인프라를 포괄적으로 구축하려는 생태계 중심의 장기 사업이다. 이러한 비교는 KOICA의 접근 초점이 개별 기술의 적용에서 사람과 시스템, 제도 전반으로 이동하고 있음을 보여준다. 인도네시아 사업이 기술 효율성과 상업화를 중심에 둔 ‘기술 중심적 문제 해결’ 전략이었다면, 방글라데시 사업은 현지 수요 기반 역량 강화를 통해 AI 기술의 현지화와 지속가능성을 도모하는 방향으로 확장되었다.

2) 단기 실증에서 장기 구조 개혁으로: 규모와 목표의 확대

두 사업은 사업 기간, 예산, 기대 효과 면에서도 뚜렷한 차이를 보인다. 인도네시아 사업은 3년 이내, 약 8억 원 규모의 기술 검증형 사업으로 추진되었으며, 성과는 유수율 개선과 시스템 판매 가능성 제고였다. 반면 방글라데시 사업은 10년간 약 2,850만 달러의 예산을 투입하여 AI 전문인력 양성, AI-Hub 센터 구축, 마스터플랜 수립 등을 통해 국가 차원의 AI 생태계를 조성하는 것을 목표로 한다. KOICA는 이를 통해 단순한 기술 원조를 넘어 구조적이고 지속가능한 개발 협력 모델로의 전환을 시도하고 있다.

이러한 접근 방식의 고도화와는 별개로, KOICA의 AI 기반 개발협력 사업은 여전히 체계적인 윤리적 거버넌스의 구축과 실행이라는 과제를 안고 있다. 인도네시아와 방글라데시 사례의 비교는 KOICA의 AI ODA 사업이 단순한 기술 이전에서 벗어나 교육, 제도, 데이터 인프라 등 다차원적 요소를 포괄하는 방향으로 진화하고 있음을 보여준다.

그러나 이와 같은 확장은 동시에 윤리적 고려 대상의 범위를 확대시키며, 각 사업 유형별 특수성을 반영한 차별화된 윤리적 관리 체계 마련의 필요성을 더욱 부각시킨다. 예를 들어, 기술 중심의 인도네시아 사례에서는 데이터 프라이버시 및 보안 우려, 기술 접근성과 형평성 문제, 책임소재 불명확 등이 핵심 윤리적 이슈로 떠올랐고, 방글라데시와 같은 인력 양성형 사업에서는 교육 내용의 윤리성, 공정성과 포용성 문제, 데이터 거버넌스, 사업 지속가능성 확보를 위한 구조적 고려가 주요 이슈로 제기되었다. 이는 사업의 유형에 따라 윤리적 위험의 양상이 달라질 수 있음을 시사한다. 따라서 향후 KOICA는 AI 기반 개발협력 사업의 생애주기 전반에 걸쳐, 기술적 성과와 함께 사회적 책임, 형평성, 투명성 등의 윤리적 원칙을 반영한 통합적 윤리 거버넌스 체계를 마련할 필요가 있어 보인다.

Ⅳ. KOICA(Korea International Cooperation Agency) AI (Artificial Intelligence) 사업의 윤리적 거버넌스 과제

본 장에서는 인도네시아 및 방글라데시 사례 분석과 실무자 인터뷰(인도네시아: A1, B1 / 방글라데시: C1)의 오픈·축코딩 결과(<부록 2>)와 국내 AI 사업 도입 결과에 대한 문헌조사를 바탕으로, KOICA의 AI 활용 개발협력 사업에서 나타난 주요 윤리적 쟁점과 거버넌스 체계 미비로 인한 한계를 고찰한다. 이를 통해 KOICA가 직면한 윤리적 리스크를 체계적으로 분석하고, 향후 윤리적 거버넌스 구축을 위한 개선 방향을 제시하고자 한다.

1. 윤리적 이슈

KOICA의 AI 기반 개발협력 사업은 다양한 기회를 제공하는 동시에, 복합적인 윤리적 쟁점을 동반하고 있다. A1, B1, C1 인터뷰 분석 및 축코딩 결과를 종합하면 다음과 같은 주요 윤리적 문제들이 식별된다.

첫째, 데이터 및 프라이버시 문제가 지속적으로 제기된다. 특히 클라우드 기반 저장 방식이나 수원국의 국가 데이터 접근 제한 조치와 같은 환경은 AI 사업의 투명성과 신뢰성을 약화시킬 수 있다(A1, B1 인터뷰). AI 교육 및 운영 과정에서 수집되는 학습 데이터의 보호, 익명화, 접근 통제 기준이 명확히 마련되어 있지 않아 개인정보 침해 가능성이 존재한다(C1 인터뷰).

둘째, 지속가능성 및 기술 의존성 문제도 주요 쟁점이다. 구독형 서비스 모델을 채택한 일부 AI 솔루션은 고비용 구조로 인해 수원국의 독립적 운영을 어렵게 만들고 있으며, 현지의 유지보수 및 예산 확보 부족 문제와 결합하여 사업 종료 후 기술 활용이 중단될 가능성이 높다(A1 인터뷰). 현지 기술인력의 역량은 잠재력이 있으나, 인프라 및 예산 부족, 제도 미비로 인해 지속가능한 구조 설계가 미흡하다는 지적이 있다(B1 인터뷰).

셋째, 법적·제도적 기반의 미비 역시 중요한 윤리적 과제로 지적된다. 수원국 대부분은 AI 관련 법제도가 아직 정비되어 있지 않고, 사업 제안서나 기획서에서 법적 검토 및 윤리영향평가 절차가 체계화되어 있지 않다(C1 인터뷰). KOICA 내부적으로도 AI 사업 추진을 위한 윤리 지침이나 법적 기준이 명확히 수립되어 있지 않다는 점에서 제도적 대응이 시급하다(A1 인터뷰).

넷째, 형평성과 포용성 부족 문제는 방글라데시 사례를 통해 명확히 드러난다. 수도 다카에 AI 허브 센터와 교육이 집중되면서 지방과의 디지털 격차가 심화될 우려가 있으며, 여성이나 사회경제적 약자 계층이 AI 교육 및 인프라 혜택에서 소외될 가능성도 높다(C1 인터뷰). 포용적 설계와 형평성 확보를 위한 선발 기준, 접근 전략 등이 사전에 마련되어야 함에도 불구하고, 현재까지는 그에 대한 고려가 부족하다.

마지막으로, 책임소재 및 알고리즘 투명성 결여도 주요한 문제로 나타난다. AI 시스템의 오류로 인해 실제 피해가 발생할 경우, 기술 공급자, KOICA, 수원국 정부 중 어느 주체가 책임을 질 것인지에 대한 명확한 원칙이 부재하며, 예측 결과에 대한 설명가능성도 낮다는 점에서 사용자와 수원국의 신뢰 확보에 한계를 보이고 있다(A1, B1 인터뷰).

이러한 이슈는 KOICA가 AI 기반 ODA 사업을 추진하는 과정에서 윤리적 리스크가 사업 효과성과 지속가능성에 직접적인 영향을 미칠 수 있음을 시사하며, 이에 대한 체계적인 윤리 거버넌스 정비가 시급함을 보여준다.

2. AI(Artificial Intelligence) 윤리 거버넌스 체계 구축 필요성

AI 기반 개발협력 사업이 확산됨에 따라, AI 윤리 거버넌스 체계의 구축은 더 이상 선택이 아닌 필수적인 요소로 인식되고 있다. KOICA의 인도네시아, 방글라데시 등 주요 사업 사례는 기술 활용에 따른 다양한 윤리적 쟁점을 드러내고 있으며, 이를 제도적으로 통제하고 예방할 수 있는 체계적 대응의 필요성을 강하게 시사한다. 특히 KOICA는 공적개발원조(ODA)을 수행하는 정부기관으로서, 사회적 책임, 형평성, 투명성, 프라이버시 보호 등 공공윤리의 실현을 선도해야 할 의무가 있다. 기술의 효율성과 효과만을 중심으로 하는 접근은 AI가 초래할 수 있는 불평등, 편향, 설명 불가능성 등의 위험을 방치하게 될 수 있으며, 이는 수원국의 수용성 저하 및 국제적 신뢰 훼손으로 이어질 수 있다. 따라서 KOICA는 기관 전반에 걸쳐 AI 윤리 거버넌스를 제도화하고 실질적으로 운영할 수 있는 기반을 갖추는 것이 시급하다.

이에 발맞추어 KOICA는 2024년 디지털 전환 가속화를 위한 AI 도입 기본 계획을 수립해 AI 윤리 거버넌스의 초석을 마련했다(한국국제협력단, 2024b). 이 계획의 핵심 내용 중 하나는 인공지능의 체계적인 도입에 필요한 ‘AI 규범’을 설정하고, 이를 포함한 중장기 전략을 기획하는 것이다(한국국제협력단, 2024b). 동 계획에 따라 KOICA는 기관 차원의 AI 윤리 거버넌스 체계화를 추진하고 있다.

본 장에서는 AI의 윤리적 활용을 위한 실질적인 거버넌스 체계를 구축하고 운영하기 위한 방안을 원칙(principles), 절차(process), 조직(organization)의 3대 구성 요소로 구분하여 제시하고자 한다. 이는 단순히 새로운 틀을 제안하는 것이 아니라, KOICA가 구축하고자 하는 AI 윤리 거버넌스를 효과적으로 운용하고 내재화하기 위한 실행 메커니즘을 제안하는 데 목적이 있다.

Ⅴ. 윤리적 거버넌스 체계 구축 방안

1. 윤리 원칙 수립(Principles)

KOICA는 인공지능(AI) 기술의 확대 도입에 따라 발생할 수 있는 윤리적 위험에 대응하고자, 2024년부터 KOICA 인공지능 윤리기준에 대한 내부 논의를 시작했다. 이 논의 과정에서는 AI의 개발·도입·활용 전 과정에 걸쳐 KOICA가 준수해야 할 핵심 가치와 실천 원칙이 탐색되고 있다.

이러한 원칙들이 실제 사업 현장에서 작동하기 위해서는 구체적인 실행지침(guidelines)으로 정제되어야 한다. 이 때, 해외 및 국내 사업 사례 분석 결과에 따른 윤리적 이슈를 고려하여 그 지침을 구체화할 수 있다. 예를 들어, ‘데이터 주권 및 보호’ 원칙의 실행 지침으로는 ▲개인정보 수집 시 현지법 및 국제 기준(General Data Protection Regulation, GDPR 등) 준수 여부 확인, ▲데이터 저장 위치 및 접근 권한에 대한 정책 수립, ▲사업 참여자에 대한 사전 고지 및 동의 절차 보장 등이 포함될 수 있다. 특히, 수원국 통계청 등 국가 기관과의 협력을 통해 데이터 보안성과 공공 접근성을 조화롭게 담보하는 데이터 공유 메커니즘 구축을 고려해야 한다. 데이터는 수집, 보관, 활용, 폐기에 이르는 생애주기(lifecycle) 전반에서 윤리적 기준에 따라 관리되어야 하며, 이에 대한 포괄적인 가이드라인 마련이 필요하다(USAID, 2023).

더불어 사업 기획 단계부터 ‘책임성 및 투명성’의 원칙을 위해 ▲AI 의사결정 논리(알고리즘 구조, 주요 변수 등)의 설명서 확보, ▲오작동 발생 시 책임 주체 및 대응 절차의 명문화 작업이 필수적이다. 이는 AI 기술을 활용한 데이터 도출 과정의 투명성을 확보하고, 각 이해관계자의 책임과 권한을 명확히 문서화하는 시스템을 의미한다. 이외에도 ‘참여와 존중’원칙을 위해 수혜자 대상 설명회 및 의견 수렴 프로세스를 운영하고, 피드백 반영 결과를 기획조사 결과보고서에 반영하는 과정이 필수적이다.

향후 이러한 실행 지침들은 윤리 영향평가, AI 기술 위험 수준 분류 기준, 사업관리 체크리스트 등과 함께 KOICA의 전사적 AI 거버넌스 체계 내에서 실질적인 적용 도구로 활용되어야 한다. KOICA 디지털·보건·사회개발팀이 개발 예정인 ‘AI 사업 가이드라인’이 이러한 필요에 상당 부분 대응해줄 것으로 기대된다.

2. 윤리 절차 마련(Process)

AI 윤리 원칙이 실효성을 갖기 위해서는 선언적 수준을 넘어, KOICA의 개발협력 사업 전 과정에 걸쳐 체계적 이행 및 점검이 가능한 절차적 장치가 내재화되어야 한다. 현재 KOICA는 인권, 환경, 젠더 분야에서 사업 기획 단계부터 스크리닝 서류를 통해 위험성을 평가하고 있으며, 이와 유사하게 AI 윤리 체크리스트의 통합 적용을 통해 사업 초기 단계에서 윤리 리스크를 구조적으로 식별하고 대응하는 체계 구축이 필요하다.

특히, KOICA가 이미 보유한 「환경·사회 세이프가드 이행지침」의 사례는 참고할 만한 선례를 제공한다(한국국제협력단, 2025c). 해당 지침은 사업의 환경·사회적 위험을 A, B, C등급으로 분류하고, 등급에 따라 포괄적(A-ESIA) 또는 제한적(B-ESIA) 영향평가를 실시하도록 규정하고 있다. UNESCO의 『인공지능 윤리 권고』(UNESCO, 2022)안에서 소개된 AI 윤리 영향평가(AI-EIA) 역시 이와 유사한 방식으로 등급화하여 적용할 수 있다. 정보통신정책연구원의 인공지능 윤리영향평가 프레임워크도 이와 유사한 절차를 제시한다(정보통신정책연구원, 2024).

평가 항목에는 다음과 같은 요소들이 포함될 수 있다: ▲AI 활용 목적의 윤리적 정당성, ▲데이터 수집 및 관리의 적절성, ▲알고리즘의 투명성 및 공정성 확보 방안, ▲잠재적 피해 가능성 및 완화 조치, ▲책임 소재 및 구제 절차, ▲현지 법규 및 국제 윤리 기준의 준수 여부 등이다. AI-EIA 결과는 사업 승인, 조건부 승인, 설계 변경 또는 사업 중단 등 의사결정의 핵심 근거로 활용되어야 한다.

또한, 윤리 리스크는 사업 실행 이후에도 지속적으로 발생할 수 있으므로, 윤리적 측면에 대한 모니터링 및 평가(M & E) 체계의 강화가 요구된다(UNESCO, 2022). 사업 수행기관은 연차 점검 보고서에 AI 윤리 원칙 준수 현황, 문제 발생 및 대응 내역, 이해관계자 피드백 등을 포함하여 제출해야 하며, 사업 종료 시에는 AI 시스템이 미친 사회적 영향, 윤리적 목표 달성도, 현지 수용성 등에 대한 정량·정성 평가를 수행해야 한다. 이러한 사후 평가 결과는 향후 유사 사업 설계 및 정책 개선에 반영될 수 있어야 한다.

마지막으로, AI 기술 개발 또는 활용을 외부에 위탁하는 경우, 파트너 기관과의 계약 또는 협약 내 윤리 조항의 명문화가 필수적이다. KOICA는 사업 수행 파트너와의 계약 시, AI 윤리 원칙 준수, 데이터 보호 및 보안 유지, 알고리즘의 설명가능성 확보, 책임 분담 및 사후 대응 의무 등을 규정한 ‘AI 윤리 조항’을 포함시켜야 한다. 이를 통해 공여기관뿐 아니라 민간 기술 기업, 연구기관, NGO(Non-Governmental Organization) 등 다양한 이해관계자들이 윤리적 책임을 공동으로 부담하며, 사업 전반의 위험을 분산 관리하는 기반을 마련할 수 있다.

3. 조직 기반 정비(Organization)

윤리 원칙과 절차가 실질적으로 작동하기 위해서는 이를 뒷받침할 수 있는 조직 구조와 인적 기반의 정비가 필수적이다. KOICA는 내부 업무의 디지털 전환을 담당하는 디지털전환정보화팀과, 국제개발협력 현장에서의 AI 기술 활용을 주도하는 디지털보건사회개발팀을 중심으로 ODA AI 윤리·품질 거버넌스를 위한 기능 분담과 협력 체계를 점진적으로 구축하고 있다. 이 두 부서는 고위험 사업에 대한 공동 심의, 정책 대응, 정보 공유 등을 통해 AI 사업의 윤리적 위험을 효과적으로 관리할 수 있는 기반을 구축하는 것을 계획하고 있다.

이때, 고위험 AI 사업의 윤리적 적정성을 심의하고, 정책 방향을 자문하며, 중대한 윤리 이슈 발생 시 독립적 판단을 제공할 수 있는 전문 윤리 자문기구의 설립을 고려할 수 있다. 이는 UNESCO 권고가 ‘독립적인 AI 윤리 책임자 또는 유사 메커니즘 도입’을 장려하는 내용과 연결된다(UNESCO, 2022). 해당 기구는 KOICA의 AI 기반 개발협력사업 전반에 대한 윤리적 통제 기능을 수행하며, 단순 자문을 넘어 심의·권고·승인 기능을 일부 공식적으로 부여받을 수 있어야 한다. 구체적으로, 위원회는 ▲KOICA AI 윤리 원칙 및 지침의 주기적 검토·승인, ▲AI 윤리 영향평가(Environmental Impact Assessment, EIA) 결과에 기반한 고위험 AI 사업의 사전 심의 및 조건부 승인 권고, ▲사업 수행 중 중대한 윤리적 위반 또는 논란 발생 시 대응 방안 자문, ▲AI 윤리 관련 국제 규범 및 기술·정책 동향 모니터링 및 반영 권고 기능을 수행한다.

이 위원회는 KOICA 내부 실무 및 정책 책임자(디지털전환팀, 디지털보건사회개발팀 등) 외에도, ▲AI 기술 및 데이터 거버넌스 전문가, ▲국제법 및 기술윤리 전문가, ▲국제개발협력 실무자 및 평가 전문가, ▲인권 및 젠더 전문가 등 외부 독립 인사로 구성하고, 장기적 관점에서 수원국 이해관계자 대표(예: 현지 공무원, 학계, 시민사회) 포함도 고려하는 것이 바람직하다.

운영 면에서는 정기 회의(예: 반기 1회), 고위험 사업 사전검토 시 임시회의 소집, 분기별 온라인 리뷰 체계 등을 통해 의사결정의 신속성과 지속성을 확보할 수 있다. 또한 자문결과는 내부에만 머물지 않고, 윤리 심의의 주요 논의사항과 권고 결과를 요약 정리한 공개형 보고서로 정기 발간함으로써, KOICA의 투명성 확보 및 국제적 책무성 강화에도 기여할 수 있다.

AI 윤리 원칙의 실질적 실행을 위해서는 KOICA 본부와 해외사무소 간의 윤리 거버넌스 연계 체계 강화가 필수적이다. 본부에서 수립한 윤리 원칙과 실행 지침이 사업 현장에서 형식적으로만 적용되지 않기 위해서는, 현지 맥락을 충분히 반영하고 현장 중심의 실행력을 보장할 수 있는 소통 및 지원 메커니즘이 구축되어야 한다. 이를 위해 첫째, KOICA 해외사무소 내에 윤리 담당자(focal point)를 지정하여, 각 사업의 윤리 리스크를 모니터링하고 본부와의 소통 창구 역할을 수행하도록 할 필요가 있다. 둘째, 본부는 해당 담당자들을 대상으로 정기적인 교육 프로그램, 온라인 웨비나, 윤리 이슈 사례 공유 워크숍 등을 운영함으로써 현장 역량을 강화하고 상시적인 상향식 피드백이 이루어지도록 지원해야 한다.

아울러, 윤리적 실천이 조직 내에서 자발적으로 뿌리내릴 수 있도록 하기 위해서는 윤리 준수를 장려하는 조직문화의 조성이 병행되어야 한다. 예를 들어, AI 윤리 실천 우수 사례에 대한 포상 제도 운영, 부서 또는 사업단위 성과 평가 시 윤리 관련 지표를 반영하는 방식 등이 고려될 수 있다. 이러한 문화적 기반은 AI 윤리의 제도적 실행을 넘어 실질적 실천으로 연결시키는 촉진 요인으로 작용할 수 있다.

더불어, AI 윤리 거버넌스의 지속 가능성과 실행력을 확보하기 위해서는 전문 역량을 갖춘 내부 전문가풀(pool)의 구성도 필수적이다. KOICA는 외부 전문가풀을 이미 일부 구축한 바 있으나, 기관의 조직 구조와 개발협력 사업의 특수성을 충분히 이해하고, 실제 현장에 적용 가능한 자문을 제공할 수 있는 내부 전문 인력의 양성과 배치가 장기적 관점에서 필요하다. 이들은 각 부서 또는 사업 단위에서 AI 사업 기획, 추진 및 평가 시 ▲윤리 자문 제공, ▲관련 가이드라인 개발 및 개정 등 핵심적 기능을 수행함으로써, KOICA 전체의 윤리적 역량 강화를 견인할 수 있다.

아울러, 윤리적 실천이 조직 내에서 자발적으로 뿌리내릴 수 있도록 하기 위해서는 윤리 준수를 장려하는 조직문화의 조성이 병행되어야 한다. 예를 들어, AI 윤리 실천 우수 사례에 대한 포상 제도 운영이나, AI 윤리 관련 지표를 AI 사업 기획 시 반영할 경우 사업 심사에 인센티브 제공하는 등의 방안이 고려될 수 있다. 이러한 문화적 기반은 AI 윤리의 제도적 실행을 넘어 실질적 실천으로 연결시키는 촉진 요인으로 작용할 수 있다.

이와 더불어, 윤리적 거버넌스의 지속 가능성을 확보하기 위해 내부 역량 강화와 국제 협력 확대가 필요하다. KOICA는 전사적인 교육을 통해 생성형 AI 활용 및 법·윤리 이슈를 다루기 시작했다. 향후에는 국제개발협력의 특수성을 반영한 윤리 교육 콘텐츠 개발이 필요하다. 예를 들어, AI 윤리 원칙, EIA 절차, 위험 대응 전략 등을 포함한 실무자 교육이 강화되어야 한다.

국제 협력 측면에서는 UNESCO, OECD, GPAI(Global Partnership on Artificial Intelligence) 등 다자간 지식 공유 플랫폼 참여를 확대하고, 수원국의 정책 역량 강화 및 공여기관 간 공동 ODA 윤리 프레임워크 개발을 통한 협력적 AI 윤리 거버넌스 생태계를 조성해 나갈 필요가 있다. OECD는 국가 정책 및 국제 협력을 통해 ‘신뢰할 수 있는 AI의 책임 있는 관리(responsible stewardship of trustworthy AI)’를 촉진할 것을 권고했다(OECD, 2019). KOICA는 이러한 국제협력에 참여함으로써 책임 있는 공여기관이라는 위상을 강화할 수 있을 것이다.

Ⅵ. 결론

1. 연구 요약 및 시사점

본 연구는 인공지능(AI) 기술이 국제개발협력에 미치는 긍정적 기회와 동시에 발생 가능한 윤리적 위험에 주목하여, 한국의 대표 국제개발협력 기관인 KOICA의 사례를 중심으로 윤리적 AI 거버넌스 체계 구축 방안을 탐색하였다. 이를 위해 AI 기술의 개념과 국제개발협력에서의 활용 현황, 국제 사회의 AI 윤리 기준과 규범을 이론적으로 검토하였으며, KOICA가 추진한 인도네시아 누수관리 사업과 방글라데시 AI 인력양성 사업을 사례로 심층 분석하였다. 아울러 AI 기반 KOICA 사업 이해관계자 인터뷰(A1, B1, C1)를 통해 축적한 현장 정보를 바탕으로 윤리적 쟁점과 제도적 공백을 도출하고, 실천 가능한 개선 방향을 제시하였다.

연구 결과, AI는 개발협력의 효과성과 혁신성을 제고할 수 있는 유력한 수단이지만, 동시에 데이터 편향, 프라이버시 침해, 책임성 모호 등 다양한 윤리적 문제를 야기할 수 있음이 확인되었다. 특히, 인도네시아 사업에서는 데이터 소유권과 기술 의존성, 알고리즘 투명성 문제가 부각되었고, 방글라데시 사업에서는 수도권 중심 설계에 따른 형평성 문제, 교육 내용의 윤리성, 국가 데이터 활용에 따른 프라이버시 이슈 등이 제기되었다. 국제사회는 이에 대응하기 위해 UNESCO, OECD 등에서 공통 윤리 원칙을 제시하며 거버넌스 체계 마련을 촉구하고 있으나, 실제 개발협력 현장에서는 이를 실행 가능한 체계로 구체화하기 위한 노력은 여전히 초기 단계에 머물러 있다.

이에 본 연구는 KOICA의 AI 윤리 거버넌스를 “원칙(principles)–절차(process)–조직(organization)”의 3축으로 체계화할 것을 제안하였다. 첫째, KOICA가 구축 예정인 ‘AI 윤리 거버넌스’를 기반으로(한국국제협력단, 2024b), 국제 기준과 조화를 이루는 실행지침을 마련하여 현장 적용성을 확보해야 한다. 둘째, AI 윤리 스크리닝 및 영향평가 도구(AI-EIA), 파트너 윤리 조항, 사업 수행 중 윤리 모니터링 등 단계별 절차를 표준화해야 하며, 기존 환경·사회 세이프가드 체계를 준용하는 것이 실효적이다. 셋째, 디지털전환정보화팀과 디지털보건사회개발팀의 협력 기반 위에 독립적 윤리 자문기구 설치, 해외사무소 윤리 담당자 지정, AI 윤리 교육 강화, 내부 전문가 풀(pool) 양성 등이 병행되어야 한다.

이러한 거버넌스 체계는 KOICA가 책임감 있는 디지털 ODA 기관으로 자리매김하는 데 기여할 수 있으며, 타 공여기관 및 국제기구에도 적용 가능한 실천적 모델로 작용할 수 있다. 아울러 KOICA가 AI 윤리 실천을 통해 국제적 연대와 수원국의 제도 정비를 촉진하고, 장기적으로 지속가능한 개발협력 생태계를 구축하는 데 기여할 수 있음을 시사한다.

2. 연구의 한계 및 향후 연구 방향

본 연구는 KOICA의 사례를 중심으로 윤리적 거버넌스 체계를 제안하였으나, 다음과 같은 한계를 갖는다. 첫째, 단일 공여기관(KOICA)에 국한된 분석이라는 점에서 일반화 가능성이 제한된다. 향후에는 UNDP, GIZ, JICA 등 다양한 공여기관의 사례를 비교 분석하여 보다 포괄적인 윤리 거버넌스 모델을 도출할 필요가 있다.

둘째, AI 기술과 정책 환경은 매우 빠르게 변화하고 있어, 현재 기준으로 도출한 거버넌스 체계나 원칙이 단기간 내에 수정이 요구될 수 있다. 특히, EU AI Act나 한국의 AI 기본법이 본격적으로 시행될 경우, 그 영향이 KOICA 사업에도 직접적으로 반영될 가능성이 높다.

셋째, 본 연구는 인터뷰 및 문헌조사 중심의 질적 연구로 진행되어, 제안된 윤리 거버넌스 방안의 효과성에 대한 정량적 검증은 수행하지 못하였다. 향후에는 KOICA AI 사업의 전후 비교를 통해 윤리 검토의 도입 여부가 사업 성과, 수원국 수용성, 위험 감축 등에 미친 영향을 실증 분석하는 연구가 필요하다.

마지막으로, 수원국의 입장에서 바라본 윤리적 수용성과 참여권 보장에 대한 심층 분석이 상대적으로 부족했다. 실제 수혜자, 현지 기관, 시민사회의 인식과 기대를 반영한 거버넌스 설계가 가능하도록 후속 연구에서 이들의 목소리를 보다 체계적으로 수렴하는 것이 중요하다.

결론적으로, AI 시대의 국제개발협력은 기술의 잠재력을 윤리적 기반 위에서 실현할 때 비로소 그 효과성과 정당성을 확보할 수 있다. KOICA를 중심으로 제안된 윤리 거버넌스 체계가 향후 보다 책임감 있는 개발협력을 실현하는 데 기여하고, 국제 사회의 AI 윤리 논의에 실질적인 기여를 할 수 있기를 기대한다.

참고문헌

1.

경제협력개발기구. (2019). OECD AI principles overview. Paris: OECD.

2.

관계부처합동. (2020). 사람이 중심이 되는 인공지능(AI) 윤리기준. 세종: 관계부처합동

3.

대한민국 디지털플랫폼정부위원회. (2023). 디지털플랫폼정부 실현계획. 서울: 디지털플랫폼정부위원회.

4.

법률신문. (2025). AI 기본법 통과의 의의 및 산업계에 미칠 영향. 법률신문. https://www. lawtimes.co.kr/LawFirm-NewsLetter/204461

5.

정보통신정책연구원. (2024). 2024 인공지능 윤리영향평가 프레임워크. 서울: 정보통신정책연구원.

6.

한국국제협력단. (2021). KOICA 디지털 전환 전략(2021-2025). 성남: 한국국제협력단.

7.

한국국제협력단. (2022). 인도네시아 효율적 수자원 관리를 위한 지능형 누수관리 플랫폼 구축사업(2021-2022/299백만 원) 최종보고서. 성남: 한국국제협력단.

8.

한국국제협력단. (2024a). 인도네시아 지속가능한 물이용 보장을 위한 지능형 종합 누수관리 시스템 고도화 및 판매사업(2022−2024/500백만 원) 최종보고서. 성남: 한국국제협력단.

9.

한국국제협력단. (2024b). 디지털전환 가속화를 위한 KOICA AI 도입 기본계획. 성남: 한국국제협력단.

10.

한국국제협력단. (2025a). 방글라데시 AI 혁신기술 산업인재 전문인력 양성사업 PCP. 성남: 한국국제협력단.

11.

한국국제협력단. (2025b). 인도네시아 스마트 물관리 인프라 강화 및 지속가능한 누수관리 비즈니스 구축 사업(2025−2029/3,125백만 원) 사업개요서. 성남: 한국국제협력단.

12.

한국국제협력단. (2025c). KOICA 환경·사회 세이프가드 이행지침. 성남: 한국국제협력단.

13.

Cazzaniga, M., Jaumotte, F., Li, L., Melina, G., Panton, A. J., Pizzinelli, C., Rockall, E. J., & Tavares, M. M. (2024). Gen-AI: Artificial Intelligence and the Future of Work. Washington, DC: International Monetary Fund.

14.

European Union. (2024). Regulation (EU) 2024/1689 of the European Parliament and of the Council of 12 July 2024 laying down harmonised rules on artificial intelligence (Artificial Intelligence Act, L 1689). Brussels: EU.

15.

International Finance Corporation. (IFC). (2020, May). Artificial intelligence in agribusiness is growing in emerging markets (EM Compass Note 82). Washington, DC: IFC.

16.

OECD. (2021). Development co-operation report 2021: Shaping a just digital transformation. Paris: OECD.

17.

Organisation for Economic Co-operation and Development (OECD). (2019). Recommendation of the Council on artificial intelligence. OECD Publishing. https://www.oecd.org/en/topics/sub-issues/ai-principles.html

18.

Strauss, A., & Corbin, J. (1998). Basics of qualitative research: Techniques and procedures for developing grounded theory (2nd ed.). Thousand, CA: Sage Publications.

19.

Tschopp, M., Stockinger, K., Crasso, M., & Staab, S. (2023, April 3). Spot on SDG 5 addressing gender (in-)equality within and with AI. Berlin: ResearchGate.

20.

UN System. (2024, September 20). Report on the operational use of AI in the UN system. High-level committee on management task force on the use of artificial intelligence in the United Nations system. New York, NY: UN.

21.

UNDP. (2025). Human Development Report 2025: A matter of choice: People and possibilities in the age of artificial intelligence (AI). New York, NY: UNDP.

22.

UNESCO. (2022). Recommendation on the ethics of artificial intelligence. Paris: UNESCO.

23.

United Nations Educational, Scientific and Cultural Organization (UNESCO). (2024). Needs assessment for artificial intelligence, digital transformation and open data for small island developing states. Paris: UNESCO.

24.

United States Agency for International Development. (USAID). (2023). AI ethics guide. Washington, DC: United States Agency for International Development.

25.

World Bank. (2025, April 10). Data, AI, and emerging technologies. Washington, DC: World Bank.

Appendices

부록 1. AI 기술적용 KOICA 사업 목록
사업 유형 대상 국가 KOICA 분야 사업명 사업시작 연도 사업종료 연도 사업관리부서 사업예산 (원화) 사업수행 기관
민관협력사업 다국가 기술환경에너지 사회주택 공급을 위한 스마트 설계 프로그램 개발 및 보급사업 2017 2018 혁신 사업실 297,571,026 스페이스 워크 주식회사
민관협력사업 다국가 보건의료 성매개감염질환에 대한 인공지능 진단 서비스 2017 2018 혁신 사업실 305,500,100 주식회사
뷰노코리아 민관협력사업 다국가 보건의료 모두의 결핵검진을 위한 원격판독 및 의료정보교류 서비스 2017 2018 혁신 사업실 299,000,000 ㈜헬스 허브
민관협력사업 다국가 보건의료 몽골, 필리핀 성매개 감염병 인공지능 서비스 진단 사업 2018 2022 기업협력사업팀 500,000,000 주식회사 뷰노코리아
민관협력사업 다국가 기술환경에너지 인공지능 및 스마트폰을 활용한 저가보급형 효율적인 말라리아 진단법 개발 사업 2018 2020 기업협력사업팀 299,998,000 스마트 엠디
민관협력사업 베트남 보건의료 베트남 심혈관질환 위험도 평가 및 관리 시스템 개발 사업 2018 2021 혁신 사업실 299,999,000 휴이노
민관협력사업 인도 보건의료 인도 아동 안검진을 위한 모바일 AI 검안 솔루션 개발, 픽셀디스플레이 2019 2020 기업협력사업팀 299,900,000 주식회사 픽셀 디스플레이
민관협력사업 캄보 디아 보건의료 캄보디아 모바일용 인공지능 자궁경부암 조기검진 소프트웨어 개발, 두에이아이 2019 2020 기업협력사업팀 299,990,000 두에이아이
민관협력사업 가나 교육 가나의 AI 데이터 라벨링 인력 양성을 통한 양질의 ICT 교육과 비대면 일자리 창출 2020 2025 기업협력사업팀 750,000,000 데이터 메이커
민관협력사업 다국가 보건의료 AI기반 화상심도 원격의료 및 진단보조 시스템 개발 2020 2022 기업협력사업팀 299,999,000 파인 인사이트
민관협력사업 인도네시아 기술환경에너지 인도네시아 효율적 수자원 관리를 위한 지능형 누수관리 플랫폼 구축사업(2021~2022/299백만 원) 2021 2022 기업협력사업팀 299,990,000 주식회사 위플랫
민관협력사업 탄자니아 교육 탄자니아 미취업 청년을 위한 AI 데이터 라벨링 교육(2021~2023/256백만 원) 2021 2023 시민사회협력사업팀 194,296,000 사단법인 코익스
민관협력사업 베트남 교육 베트남 하노이 AI 교육을 통한 인력 양성 및 일자리 창출 사업 2022 2026 기업협력사업팀 2,173,572,000 ㈜테스트 웍스
민관협력사업 볼리 비아 보건의료 볼리비아 자궁경부암 조기 진단을 위한 AI 진단 시스템 고도화 및 보급 사업 (2022~2024/500백만 원) 2022 2025 기업협력사업팀 500,000,000 ㈜아이 도트
글로벌 연수 스리 랑카 공공행정 스리랑카 인공지능을 활용한 언론 역량강화(2022~2024) 2022 2022 연수 사업실 101,933,581 한양대학교 에리카 산학협력단
글로벌 연수 스리 랑카 공공행정 스리랑카 인공지능을 활용한 언론 역량강화(2022~2024) 1차년도 온라인연수 2022 2022 연수 사업실 162,000,000 한양대학교 에리카 산학협력단
민관협력사업 인도네시아 기술환경에너지 인도네시아 지속가능한 물이용 보장을 위한 지능형 종합 누수관리 시스템 고도화 및 판매사업(2022~2024/500백만 원) 2022 2024 기업협력사업팀 500,000,000 주식회사 위플랫
민관협력사업 캄보 디아 교육 캄보디아 디지털경제 전환을 위한 IT 전문가 양성 및 공립학교 교사역량 강화 사업(14.7백만 원) 2022 2024 기업협력사업팀 846,025,625 이엠캐스트 주식회사
글로벌 연수 스리 랑카 공공행정 스리랑카 인공지능을 활용한 언론 역량강화(2023) 2023 2023 연수 사업실 119,414,075 한양대학교 에리카 산학협력단
글로벌 연수 스리 랑카 공공행정 스리랑카 인공지능을 활용한 언론 역량강화, 2차년도 2023 2023 연수 사업실 121,500,000 한양대학교 에리카 산학협력단
소규모 무상원조 아제르바이잔 공공행정 아제르바이잔 아산센터(공공서비스센터) AI 기술화 지원사업 2023 2023 N/A 516,000,000 NA
민관협력사업 베트남 보건의료 베트남 내 글로벌 빅데이터 기반 임상 연구자 AI 검색 및 추천 서비스 시범 사업 (Seed1/2024~2025/300백만 원) 2024 2025 기업협력사업팀 300,000,000 주식회사 메디아이 플러스
민관협력사업 베트남 농림수산 베트남 축산업 생산성 향상을 위한 바이오캡슐과 AI솔루션 보급사업(Seed1/2024~2026/300백만 원) 2024 2026 기업협력사업팀 300,000,000 ㈜라이브 케어
글로벌 연수 스리 랑카 공공행정 스리랑카 인공지능을 활용한 언론 역량강화(2022~2024) (2024) 2024 2024 연수 사업실 96,481,572 한양대학교 에리카 산학협력단
글로벌 연수 스리 랑카 공공행정 스리랑카 인공지능을 활용한 언론 역량강화(2022~2024), 3차년도 2024 2024 연수 사업실 113,400,000 한양대학교 에리카 산학협력단
민관협력사업 인도네시아 기술환경에너지 인도네시아 탄소중립 전기 이륜차 전환을 위한 AI 기반 녹색금융 접근성 향상사업 (TIPS 연계/2024~ 2027/800백만 원) 2024 2025 기업협력사업팀 800,000,000 에이젠 글로벌
개발 컨설팅 콜롬 비아 기술환경에너지 (Q~DEEP) 콜롬비아 쿤디나마르키주 보고타강 수질 개선을 위한 AI 기반 오염원 실시간 추적 관리체계 구축 타당성조사 사업 2024 2025 중미·카리브팀 497,650,000 한국지능 정보사회 진흥원
민관협력사업 탄자 니아 교육 탄자니아 미취업 청년을 위한 AI 데이터 라벨링 교육사업 2단계 (2024~2025/224백만 원) 2024 2025 시민사회협력사업팀 179,233,000 사단법인 코익스
민관협력사업 베트남 보건의료 베트남 결핵 감염자 조기 선별 및 선제 격리를 위한 활동성 결핵 판독 AI 솔루션 개발 2025 2026 기업협력사업팀 300,000,000 MDAI
민관협력사업 베트남 보건의료 자궁경부암 진단 AI를 활용한 베트남 지속가능 발전 지원 사업 2025 2027 기업협력사업팀 2,160,000,000 ㈜엔티엘 헬스케어
민관협력사업 베트남 보건의료 베트남의 호흡기 질환 검사 저변 확대를 위한 IoT 및 AI를 활용한 원격진료용 호흡기질환검사기 고도화 및 판매 사업 (2025~2026년/500백만 원) 2025 2026 기업협력사업팀 500,000,000 주식회사 티알
민관협력사업 우즈베키스탄 교육 우즈베키스탄 타슈켄트 산학연계형 인공지능교육센터를 통한 인재양성 사업(2025~2026/782백만 원) 2025 2026 시민사회협력사업팀 782,000,000 제주한라 대학교 산학협력단
민관협력사업 인도네시아 기술환경에너지 인도네시아 스마트 물관리 인프라 강화 및 지속가능한 누수관리 비즈니스 구축 사업)(2025~2029/3,125백만 원) 2025 2029 기업협력사업팀 3,125,000,000 주식회사 위플랫
글로벌 연수 피지 공공행정 인공지능(A.I)에 기반한 디지털 교육 역량 강화(2026~2028) 2026 2028 연수 사업실 미정 사업계획 확정 전
민관협력사업 필리핀 보건의료 필리핀 지역 영아 건강증진을 위한 AI 기반의 신생아 희귀 질환 진단 솔루션 현지화 및 보급 사업(Seed2/2025~2027/500백만 원) 2025 2027 기업협력사업팀 500,000,000 메디 사피엔스 주식회사
국별협력사업 방글라데시 기타 방글라데시 AI 혁신기술 산업인재 전문인력 양성사업 2026 2035 서남아시아팀 39,330,000,000 사업계획 확정 전
국별협력사업 세네갈 교육 세네갈 ICT 센터 구축을 통한 디지털 청년인재 양성 및 혁신 창업 지원 사업(2026~2032/1,450만 불) 2026 2032 아프리카2팀 18,850,000,000 사업계획 확정 전
국별협력사업 엘살바도르 보건의료 엘살바도르 국립보건교육센터 설립 및 보건교육 강화 2차사업(2026~2031/700만 불) 2026 2031 중미·카리브팀 7,549,999,380 사업계획 확정 전
국별협력사업 우즈베키스탄 기술환경에너지 우즈베키스탄 치르치크 강 스마트 수질오염 관리 시스템 개발 및 역량강화 사업 (2026~2029/1,220만 불) 2026 2029 유라시아팀 15,860,000,000 사업계획 확정 전
국별협력사업 우즈베키스탄 공공행정 우즈베키스탄 국가개발전략(우즈베키스탄 2030) 이행을 위한 국가행정아카데미 디지털 혁신사업 (2026~2030/1,482만 불) 2026 2030 유라시아팀 26,000,000,000 사업계획 확정 전
국별협력사업 우즈베키스탄 공공행정 법률 서비스 현대화 및 법 교육 강화를 위한 중앙아시아 디지털 법센터 건립사업 (2026~2030/2,000만 불) 2026 2030 유라시아팀 26,000,000,000 사업계획 확정 전
국별협력사업 캄보 디아 공공행정 캄보디아 국가 상표 관리센터 및 지식재산(IP)~비즈니스 통합정보플랫폼 구축사업(2026~2031/1,000만 불) 2026 2030 동남아시아1팀 13,000,000,000 사업계획 확정 전
국별협력사업 키르기스스탄 공공행정 키르기스스탄 공공서비스 혁신 및 민간기업 참여 활성화를 위한 IT 허브 구축사업(2026~2031/1,400만 불) 2026 2032 유라시아팀 18,200,000,000 사업계획 확정 전
국별협력사업 페루 공공행정 페루 외교부 영사서비스 디지털화 사업 (2026~2027/1,230만 불) 2026 2027 남미팀 15,990,000,000 사업계획 확정 전

AI, Artificial Intelligence; KOICA, Korea International Cooperation Agency; NA, Not Applicable; IP, Intellectual Property; ICT, Information and Communications Technology.

Download Excel Table
jidc-20-1-145-g1
부록 2. 인터뷰 코딩 결과에 따른 패러다임모델 출처: KOICA의 AI 윤리거버넌스체계구축 패러다임모델: 인터뷰대상자 오픈, 축, 선택코딩결과를 바탕으로(Strauss & Corbin, 1998)
Download Original Figure