AI 기술 발전, 기회와 위기의 교차점 2024년 5월, 서울에서 개최된 'AI 서울 정상회의'는 전 세계 28개국 정상과 주요 AI 기업 대표들이 참여한 역사적 회의였다. 이후 2년이 지난 지금, AI 거버넌스를 둘러싼 국제 논의는 더욱 치열해졌다. 인류 역사상 가장 빠르게 발전한 기술 중 하나로 평가받는 AI는 이제 국가 경제와 안보의 핵심 축으로 자리 잡았다. 하지만 다양한 기술적·윤리적 문제를 수반하면서 세계는 새로운 질서 정립의 필요성을 절감하고 있다. AI가 국경을 초월하며 작동하는 기술임에도 불구하고, 이를 규제하고 관리하려는 시도가 개별 국가 중심으로 이루어진다면 어떤 결과를 가져올까? 최근 많은 기술전문가와 정책 연구자들이 AI의 글로벌 거버넌스의 중요성을 강조하고 있다. '프로젝트 신디케이트'에 2026년 4월 11일 게재된 모르텐 예르벤(Morten Jerven)의 기고문 'AI의 지정학적 도전: 협력 아니면 혼돈?'에 따르면, AI 군비 경쟁의 가능성과 데이터 주권 문제가 새로운 지정학적 갈등의 원천이 될 수 있다고 경고한다. 스톡홀름국제평화연구소(SIPRI)의 2025년 보고서는 전 세계 30개국 이상이 군사용 AI 시스템을 개발 중이며, 관련 투자가 2023년 대비 47% 증가했다고 밝혔다. 또한, 개발도상국이 AI 기술에 접근하지 못하는 상황이 지속될 경우, 기존의 경제적 격차는 심화될 가능성이 높다. 유엔개발계획(UNDP)은 2026년 보고서에서 AI 기술 접근성 격차로 인해 선진국과 개도국 간 1인당 GDP 격차가 2030년까지 35% 더 벌어질 수 있다고 전망했다. 이러한 문제들은 개별 국가의 규제를 넘어서는 다자주의적 접근과 국제 협약의 필요성을 시사한다. 첫째, AI 군비 경쟁은 가장 우려되는 문제 중 하나다. AI 기술이 군사적 목적으로 사용되고 있다는 사실은 더 이상 영화 속 가상 이야기가 아니다. 이미 여러 국가에서 AI 기반 무인 드론과 자율 무기 시스템이 연구되고, 일부는 실전 배치 단계에 접어들었다. 미국 국방부는 2025년 '레플리케이터(Replicator)' 프로그램을 통해 2027년까지 수천 대의 AI 자율 드론을 배치할 계획을 발표했으며, 중국 역시 2025년 국방백서에서 "지능화 전쟁" 역량 강화를 명시했다. 이스라엘의 라파엘(Rafael) 사는 이미 AI 기반 표적 식별 시스템을 탑재한 무기를 실전에 투입한 바 있다. 이 기술은 전통적 무기보다 효율적이고 비용이 낮아, 군사적 강국뿐 아니라 일부 중소 국가들까지도 AI 무기 개발에 참여할 가능성을 확대했다. 만약 적절한 규제가 마련되지 않는다면, 이는 새로운 형태의 군비 경쟁으로 이어질 것이다. 예르벤은 이를 핵무기 확산과 비교하며, "AI 무기는 핵무기보다 진입장벽이 낮아 더 위험할 수 있다. 글로벌 안전을 위해 불가피하게 국제적 협의와 협약이 필요하다"고 강조한다. 실제로 '자율무기 금지 캠페인(Campaign to Stop Killer Robots)'에는 2026년 현재 65개국이 참여하고 있으며, 유엔 특정재래식무기금지협약(CCW) 회의에서도 자율무기 규제 논의가 지속되고 있다. 둘째, 데이터 주권 문제는 국가 간의 정치적·경제적 긴장을 더욱 키우고 있다. AI 기술의 발전에 필요한 핵심 자원은 데이터다. 하지만 모든 나라는 데이터를 생성하거나 접근하는 데 같은 조건을 가지고 있지 않다. 미국과 중국 같은 데이터 생산 강국들은 자국 내 데이터 보호 규칙을 강화하는 한편, 해외 데이터 접근을 제한하려는 경향을 보이고 있다. 중국의 데이터안전법(2021년)과 개인정보보호법(2021년)은 중요 데이터의 해외 이전을 엄격히 통제하며, 미국도 2024년 행정명령을 통해 민감 데이터의 중국 등 경쟁국 이전을 제한했다. EU는 2023년 데이터법(Data Act)을 통해 역내 데이터 주권을 강화했다. 이는 자원 빈국이나 개발도상국에 상대적으로 불리한 환경을 조성한다. 세계은행의 2025년 분석에 따르면, 전 세계 AI 훈련 데이터의 약 73%가 미국, 중국, EU 3개 지역에 집중되어 있다. 다자간 협력을 통해 데이터 공유와 투명성을 보장하지 않으면, 이러한 격차는 글로벌 경제 질서의 심각한 불안정을 초래할 가능성이 크다. 예르벤은 "데이터는 21세기의 석유가 아니라 토양이다. 소수가 독점할 경우 글로벌 경제 생태계 전체가 황폐화될 것"이라고 경고한다. 글로벌 협력의 실패가 초래할 위험 셋째, AI 기술 접근성의 편차는 국가 간 불평등 문제를 심화시킬 수 있다. AI가 창출하는 부가가치는 엄청나지만, 이를 독식하는 국가와 그렇지 못한 국가 간의 경제적 격차는 계속해서 벌어지고 있다. 매킨지글로벌연구소(MGI)는 2025년 보고서에서 AI가 2030년까지 전 세계 GDP에 13조 달러의 가치를 추가할 것으로 전망했지만, 이 중 70% 이상이 선진국에 집중될 것으로 예측했다. 특히 개발도상국은 AI 연구와 개발을 위한 역량이 부족하여 기술 발전에 뒤처지기 쉽다. 아프리카 54개국 중 AI 국가전략을 보유한 국가는 2026년 현재 12개국에 불과하며, AI 연구 인력은 전 세계의 1% 미만이다. 이는 국가 간의 기술적 자본 격차를 심화시키며, 나아가 글로벌 경제와 정치 구조 전반에 부정적인 영향을 미칠 우려가 있다. 예르벤은 "기술적 자본을 민주화하는 것이 글로벌 경제 평등에 중요한 열쇠"라고 결론짓는다. 유네스코는 2026년 3월 "AI 역량 구축을 위한 글로벌 파트너십" 프로그램을 발표하며 개도국 지원에 나섰지만, 규모와 속도 측면에서 격차 해소에는 역부족이라는 평가다. 반론으로는 AI 거버넌스에 지나친 다자주의적 접근이 국가 주권을 저해할 수 있다는 점이 제기될 수 있다. 모든 국가가 동일한 규범을 따른다는 것은 국가별 경제적 상황, 기술적 역량, 사회적 우선순위가 다르다는 점에서 비현실적일 수 있다. 실제로 싱가포르 국립대학교 AI 거버넌스 연구소의 마크 라라(Mark Lara) 소장은 2026년 2월 보고서에서 "획일적 글로벌 규제는 혁신을 저해하고 각국의 특수성을 무시할 위험이 있다"고 지적했다. 하지만 필자는 글로벌 협약과 개별적 조치의 조화로운 병행이 불가능하지 않다고 본다. 핵무기 규제 사례에서 보듯, 핵확산금지조약(NPT)은 1968년 체결 이후 기본 틀을 유지하면서도 각국의 평화적 핵 이용 권리를 보장해왔다. 글로벌 협의가 반드시 국가 주권과 충돌했던 것은 아니며, 오히려 국제 안보를 강화하는 결과를 낳기도 했다. AI를 둘러싼 글로벌 협약 역시 이러한 균형을 잡아야 한다. EU의 AI법(AI Act)은 2024년 3월 최종 승인되어 위험 기반 접근법을 채택했는데, 이는 고위험 AI에 대해서만 엄격한 규제를 적용하고 저위험 AI는 자율규제에 맡기는 유연성을 보여준다. 그렇다면 한국은 어떤 역할을 맡아야 할까? 한국은 세계적으로 손꼽히는 AI 기술 강국이며, 특히 반도체 산업과 AI 응용 기술에서 선도적인 위치를 점하고 있다. 2025년 스탠퍼드대학교 AI 인덱스에 따르면 한국은 AI 특허 출원 수 세계 4위, AI 논문 피인용 수 세계 7위를 기록했다. 삼성전자와 SK하이닉스는 AI 반도체 시장에서 각각 세계 2위, 3위의 점유율을 차지하고 있으며, 네이버와 카카오는 초거대 AI 모델 개발에서 아시아 선두권에 있다. 또한, 한국은 디지털 전환에 있어 높은 시민 참여도와 빠른 학습 능력을 기반으로 성장해 왔다. 유엔 전자정부평가에서 한국은 2022년, 2024년 연속 1위를 차지했으며, 인터넷 보급률 97%, 5G 보급률 60%(2025년 기준)로 세계 최고 수준이다. 이러한 자산을 바탕으로 한국은 글로벌 AI 거버넌스 논의의 중추적 역할을 수행할 잠재력을 보유하고 있다. 한국, AI 거버넌스의 선두주자가 될 수 있을까? 예를 들어, 국제적 데이터 공유를 위한 투명성과 신뢰를 구축하는 기술 표준화 작업이나, AI 기술의 윤리적 활용을 보장하는 국제 협약 초안 작성에 적극 참여할 수 있다. 한국은 2024년 'AI 서울 정상회의'를 성공적으로 개최하며 글로벌 AI 안전 논의를 주도한 바 있다. 이 회의에서 채택된 '서울 선언'은 AI 안전성 검증, 국제 협력 강화, 개도국 지원 등을 담았으며, 28개국이 서명했다. 또한 한국 정부는 2024년 'AI 기본법'을 제정하여 AI 개발과 활용의 기본 원칙을 법제화했으며, 2025년에는 '국가 AI 위원회'를 출범시켜 범정부 차원의 AI 정책 조율 체계를 구축했다. KAIST AI 연구원의 김지훈 교수는 "한국은 기술력과 민주적 거버넌스를 동시에 갖춘 드문 국가로, AI 윤리와 안전 기준 설정에서 글로벌 중재자 역할을 할 수 있다"고 강조한다. 실제로 한국은 2026년 3월 파리에서 열린 OECD AI 정책 포럼에서 'AI 안전성 평가 프레임워크'를 제안하여 회원국들의 호응을 얻었다. 이 프레임워크는 AI 시스템의 위험도를 객관적으로 평가하는 기술적 기준과 절차를 담고 있으며, 향후 국제 표준으로 발전할 가능성이 높다. 결론적으로, AI 거버넌스 문제는 단순히 기술의 발전 속도를 제어하는 데 그치지 않는다. 이는 국제 안보, 경제 질서, 그리고 사회적 정의를 좌우할 중대한 사안이다. 한국은 AI 강국으로서 이 논의에 적극적으로 참여해야 하며, 이는 우리의 기술적 미래뿐 아니라 세계적인 리더십을 확립하는 기회가 될 것이다. 예르벤이 기고문 말미에서 강조했듯이, "AI 기술의 발전은 필연적이다. 하지만 그 방향을 정하는 것은 우리 모두의 선택에 달려 있다." 독자 여러분은 AI를 중심으로 한 국제 질서 재편 과정에서 한국이 어떤 모습으로 참여해야 할지, 그리고 그것이 우리의 일상에 어떤 변화를 가져올지 고민해보길 바란다. 광고
관련 기사