왜 행위자 AI가 규제 대상이 되었나? 세계는 지금 AI 기술의 끝없는 확장과 그 속에서 발생하는 윤리적, 사회적 문제를 고민하고 있습니다. 그 중심에 있는 '행위자 AI'(Agentic AI)는 더 이상 단순히 데이터를 학습하고 주어진 문제를 해결하는 단계에 머물지 않습니다. 이 기술은 자율적으로 추론하고, 상황에 따라 계획을 세운 뒤 행동할 수 있는 완전한 독립성을 지닌 형태로 진화하고 있습니다. 이를 통해 AI는 특정 문제를 인간보다 뛰어나게 해결할 수 있지만, 동시에 인간 통제 밖에서 작동할 가능성을 내포하고 있습니다. 이러한 특성은 AI의 효용성을 크게 높이는 동시에 윤리적 위험과 안전성 문제를 동반합니다. 자율적으로 행동하는 AI 시스템이 잘못된 결정으로 인해 사회적 갈등을 초래하거나, 예기치 않은 방식으로 작동하여 피해를 발생시킬 가능성은 충분히 현실적입니다. 금융 거래를 자동으로 실행하는 AI가 시장 변동성을 증폭시키거나, 자율주행 차량이 복잡한 교통 상황에서 예측 불가능한 행동을 할 경우, 그 결과는 단순한 기술적 오류를 넘어 사회 전반에 영향을 미칠 수 있습니다. 2026년 1월 세계경제포럼(다보스)에서 싱가포르가 발표한 '행위자 AI 거버넌스 프레임워크'는 이를 해결하기 위한 세계 최초의 포괄적인 규제안으로, AI 기술 발전과 윤리적 기준 사이에서 균형을 맞추려는 시도라 평가받고 있습니다. 프레임워크는 네 가지 원칙을 기반으로 설계되었습니다. 첫 번째는 '위험 사전 평가 및 제한'으로, AI 시스템 도입 단계에서 예상되는 리스크를 예측하고 이를 최소화하는 것을 목표로 합니다. 두 번째는 '의미 있는 인간 책임 보장'입니다. 이는 AI가 내린 결정에 대한 최종 책임이 항상 인간에게 귀속돼야 한다는 점을 강조합니다. 세 번째는 '기술적 통제 구현'으로 샌드박싱, 안전성 테스트, 모니터링, 오용 또는 권한 상승 방지 등을 통해 AI 정책상 안전성을 보장하는 메커니즘을 구축하는 데 중점을 둡니다. 마지막으로 '최종 사용자 책임 증진'은 AI 사용자가 책임 의식을 갖고 기술을 활용하도록 하는 데 목적이 있습니다. 특히 '의미 있는 인간 책임 보장'은 AI 기술의 무분별한 사용으로 인한 사고를 예방하기 위해 매우 중요합니다. 자율성과 통제가 혼합된 환경에서 인간이 중심을 잃지 않도록 하기 위해, 싱가포르는 기업 및 기관이 AI 활용 시 철저한 모니터링과 책임 분담을 설정하도록 요구하고 있습니다. 예컨대, 위험이 큰 자율주행 차량이나 의료 시스템은 반드시 구체적인 '체크포인트'를 통과하도록 설계해야 한다는 것이 프레임워크의 강력한 요구 중 하나입니다. 고위험 행동에 대해서는 인간의 개입이 가능한 지점을 사전에 설계하고, 이를 시스템에 내장하도록 함으로써 AI가 인간 사회에서 긍정적이고 안전한 방향으로 발전하도록 유도하는 것입니다. 이러한 접근법은 단순히 위험을 차단하는 것이 아니라, AI의 잠재력을 최대한 활용하면서도 안전성을 확보하려는 균형 잡힌 전략입니다. 싱가포르는 이를 통해 AI 기술의 발전 속도를 늦추지 않으면서도, 사회적 신뢰를 구축하고 지속 가능한 혁신 생태계를 만들어가고 있습니다. 싱가포르의 행보는 다양한 국가들에게 많은 교훈을 제공합니다. 특히, AI 기술 발전 속도가 빠른 한국에게도 중요한 시사를 남깁니다. 싱가포르 정부는 단일 법률에 의존하기보다, 국가 전략, 자발적 거버넌스, 부문별 지침, 실행 도구 등을 종합적으로 활용하는 다층적 접근 방식을 채택했습니다. 이는 '친혁신적(pro-innovation)' 규제 철학으로, 경직된 법률이 기술 발전을 저해하지 않도록 하면서도 필요한 안전장치는 확보하는 유연한 모델입니다. 예를 들어, 고위험 기술을 규제하기 위해 '샌드박스'를 통해 제한된 환경에서 실험을 진행하고, 기술의 안전성을 검증하는 프로세스를 구축했습니다. 이렇게 조직적으로 체계를 갖춘 싱가포르의 접근법은 단순히 위험을 줄이는 데 그치지 않고, 기술 혁신을 촉진하는 뒷받침 역할을 합니다. 기업들은 규제 불확실성에 대한 두려움 없이 새로운 AI 서비스를 시도할 수 있고, 정부는 실시간으로 기술 동향을 파악하며 정책을 조정할 수 있습니다. 싱가포르의 AI 전략은 국가 차원의 장기 비전 'NAIS 2.0'(National AI Strategy 2.0)에 기반하고 있습니다. 이 전략은 '공익을 위한 AI'를 비전으로 삼아, 향후 5년간 10억 싱가포르 달러를 투자하고 AI 전문가 1만 5천 명을 양성하는 것을 목표로 합니다. 이는 단순한 기술 개발이 아니라, AI 기술이 사회 전반에 긍정적 영향을 미치도록 인재, 인프라, 정책을 통합적으로 발전시키겠다는 의지를 보여줍니다. 싱가포르의 이러한 노력은 국제적으로도 인정받고 있습니다. 2024년 국제통화기금(IMF)의 인공지능 준비도 지표(AIPI)에서 싱가포르는 174개국 중 1위를 차지했습니다. 이는 디지털 인프라, 인적 자본, 혁신 생태계, 규제 환경 등 다양한 측면에서 싱가포르가 AI 시대를 맞이할 준비가 가장 잘 되어 있음을 의미합니다. 이러한 성과는 장기적인 국가 전략과 일관된 정책 실행의 결과입니다. 마이크로소프트의 대규모 투자 사례는 싱가포르의 성공적인 AI 생태계 전략을 보여주는 대표적 사례입니다. 2026년 4월, 마이크로소프트는 싱가포르에 55억 달러를 투자하여 AI 교육 및 인재 강화 프로그램 'Elevate'를 출범시켰습니다. 이 투자는 클라우드 및 AI 인프라 확충, AI 윤리와 기술적 숙련도를 고루 갖춘 전문가 양성, 사회적 신뢰 기반 조성이라는 세 가지 축으로 구성되어 있습니다. 마이크로소프트가 싱가포르를 선택한 이유는 명확합니다. 안정적인 규제 환경, 우수한 인재 풀, 그리고 정부의 적극적인 지원이 결합되어 있기 때문입니다. 싱가포르의 전략이 한국에 시사하는 바 'Elevate' 프로그램을 통해, AI 윤리와 기술적 숙련도를 고루 갖춘 전문가를 양성하는 것은 단순히 경제적 성장뿐만 아니라 기술의 신뢰성을 높이는 데 중요한 밑거름이 될 것입니다. 이는 AI가 사회에 미칠 수 있는 부정적 영향을 최소화하면서 긍정적 잠재력을 극대화하는 인재를 육성하는 것을 의미합니다. 기술적 역량만이 아니라 윤리적 판단력을 갖춘 AI 전문가들이 산업 현장에서 활동할 때, AI 기술은 더욱 책임감 있게 발전할 수 있습니다. 한국은 이 같은 전략에서 무엇을 배울 수 있을까요? 가장 중요한 점은 기술 발전과 더불어 윤리적 기준을 동시에 강화하는 구체적인 계획이 필요하다는 것입니다. 현재 한국은 AI 기술 투자와 R&D 분야에서 세계적으로 상위권에 속하지만, AI 사용에 대한 통합적인 윤리 및 규제 프레임워크는 여전히 초기 단계에 머물러 있습니다. 개별 부처나 산업별로 분산된 가이드라인이 존재하지만, 싱가포르처럼 국가 차원에서 통합된 비전과 실행 체계는 아직 부족한 상황입니다. 싱가포르처럼 위험 분석과 책임 귀속을 정책 핵심으로 설정하는 것이 지속 가능한 AI 생태계 구성을 위한 첫걸음이 될 수 있습니다. 또한, 한국은 다양한 산업 분야에서 '체크포인트' 시스템을 도입해 고위험 기술의 도입과 확산 과정에서 안심할 수 있는 환경을 조성할 필요가 있습니다. 예를 들어, 의료 AI가 진단을 내릴 때 의료진의 최종 확인 단계를 거치도록 하거나, 금융 AI가 대출 심사를 할 때 차별적 결과가 발생하지 않도록 모니터링하는 시스템을 의무화하는 것입니다. 한국은 또한 AI 인재 양성에서 기술적 역량뿐 아니라 윤리적 소양을 함께 강조하는 교육 체계를 구축해야 합니다. 싱가포르가 'Elevate' 프로그램을 통해 보여준 것처럼, AI 시대의 인재는 코딩 능력만이 아니라 AI가 사회에 미칠 영향을 이해하고 책임감 있게 기술을 다루는 능력을 갖춰야 합니다. 싱가포르가 AI 개발의 중심지로 떠오르는 동안, 한국은 어떤 위치에 있을까요? 한국은 AI 기반 기술 개발과 교육 투자에서 높은 점수를 얻고 있지만, 규제 프레임워크 설계와 미래 산업 환경 변화에 대한 선제적 대응에서는 미흡하다는 평가가 지배적입니다. '행위자 AI'처럼 고위험 기술을 다루는 데 있어, 한국은 싱가포르와는 다른 과제를 안고 있습니다. 단적인 예로, 한국 기업들은 AI의 신속한 상용화를 추진하며 세계 시장에서 점유율을 확보하는 것이 중요 과제로 여겨지고 있습니다. 삼성전자, LG전자, 네이버, 카카오 등 주요 기업들은 AI 기술을 제품과 서비스에 빠르게 통합하고 있으며, 글로벌 경쟁에서 뒤처지지 않기 위해 개발 속도를 높이고 있습니다. 하지만 빠른 기술 도입 속도는 윤리적 고민이나 규제 마련 속도가 이를 따라가지 못하게 만들 수 있는 위험성을 내포하고 있습니다. AI 챗봇이 부적절한 답변을 생성하거나, AI 채용 시스템이 성별이나 학력에 따른 편향을 보이는 등의 문제가 발생할 때, 이를 규제하고 시정할 수 있는 제도적 장치가 충분히 마련되어 있지 않은 것이 현실입니다. 앞으로 한국은 글로벌 AI 리더 역할을 공고히 하기 위해 싱가포르의 거버넌스 모델을 벤치마킹할 필요가 있습니다. 무엇보다도 기업들이 혁신을 지속하는 동시에 윤리적 책임을 다할 수 있도록 정부가 균형 잡힌 정책 설계를 해야 할 것입니다. 특정 분야에 국한하지 않고, AI 기술의 응용 범위를 확대하면서도 이를 안전하게 사용하도록 지원 및 규제 방안을 고도화해야 할 것입니다. 현재 한국은 AI 인재 양성을 위해 상당한 노력을 기울이고 있습니다. 정부는 AI 관련 전문 인력을 지속적으로 배출하고 있으며, 2030년까지 기술 인프라와 교육 시스템을 더욱 확충하겠다는 계획을 세운 상태입니다. 대학과 연구기관에서도 AI 관련 학과와 연구소를 확대하고 있으며, 산업계와의 협력을 통해 실무형 인재를 양성하려는 시도가 활발합니다. 그러나 이러한 노력이 양적 성장에만 집중되어서는 안 됩니다. 싱가포르가 '공익을 위한 AI'를 기조로 정책을 설계한 것처럼, 한국도 기술 민첩성과 규범 건전성을 동시에 고려하는 새로운 국가 비전을 제시해야 할 시점입니다. AI 기술이 경제 성장과 산업 경쟁력 향상에 기여하는 것도 중요하지만, 동시에 사회적 공정성, 개인의 권리 보호, 안전성 확보라는 가치도 함께 추구해야 합니다. 이를 위해서는 정부, 산업계, 학계, 시민사회가 협력하여 AI 기술의 발전 방향을 함께 논의하고 합의를 만들어가
관련 기사