서구 중심 AI 윤리 프레임워크, 아프리카의 현실과 괴리 현대 사회에서 인공지능(AI)은 단순 기술 이상의 역할을 하고 있다. 처음에는 토론 상대나 영상 추천 모델로 존재감을 드러내던 AI가 이제는 법률, 경제, 사회 전반에 걸친 영향력을 확대하며 규제와 윤리적인 논의를 요구하고 있다. 하지만 이러한 AI 거버넌스가 글로벌 관점에서 서구권 중심으로 설계되어 아프리카와 같은 비서구권 지역의 현실적 필요를 외면하고 있다는 점이 점점 더 부각되고 있다. 이러한 상황은 기술 발전의 윤리적 측면뿐만 아니라, 글로벌 불평등이라는 문제를 더욱 선명하게 한다. 최근 위츠대학교(Wits University)에서 개최된 제2차 아프리카 사이버 법률 컨퍼런스에서는 이러한 문제를 정면으로 다뤘다. 이 자리에서 위츠 법학부 선임 강사이자 컨퍼런스 주최자인 노말랑가 마시니니(Dr. Nomalanga Mashinini) 박사는 "우리는 이러한 현상이 현실 세계에서 아프리카인들이 기술 설계에 대표되지 못하고 있다는 점에서 나타나고 있으며, 이는 디지털 시스템에서 누가 보여지고, 누가 배제되며, 누가 보호받는가에 대한 질문을 제기한다"며 서구 중심의 데이터셋으로 AI가 훈련됨으로 인해 발생하는 시스템적 배제 문제를 강하게 지적했다. 마시니니 박사는 특히 AI 시스템이 아프리카 언어로 된 유해 콘텐츠를 감지하지 못하거나, 문화적 뉘앙스를 놓치거나, 전체 인구를 잘못 분류하거나 보이지 않게 만드는 구체적 사례들을 언급했다. 이는 AI 시스템이 주로 글로벌 북반구 데이터셋으로 훈련되기 때문에 발생하는 문제로, 아프리카 언어의 과소 대표성과 문화적 미묘함 상실, 그리고 전체 인구를 부정확하게 분류하거나 비가시화되는 결과를 초래한다. 이는 개인의 권리를 보호하기 위한 법적, 윤리적 규제의 필요성과 더불어 구조적 차원에서 AI 설계 과정에서부터 지역적 특성을 반영해야 할 필요성을 강조한 것이다. AI 거버넌스의 서구 중심성이 초래한 기능적 문제는 기술적인 관점에서도 심각하다. 예를 들어, 글로벌 북반구 데이터를 기반으로 훈련된 AI는 아프리카 언어로 된 유해 콘텐츠를 효과적으로 식별하지 못하거나, 문화적 뉘앙스를 분석하기 어려워 현지 맞춤형 해결책을 제공하지 못하고 있다. 또한 디지털 접근성의 불균형이 마치 기술이 특정 사회계층만을 위한 개발물처럼 보이게 만드는 문제를 낳았다. 아프리카에서는 이러한 기술적 결함이 단순한 불편을 넘어서, 법적 보호가 취약한 개인을 더욱 취약하게 만드는 현상을 불러오고 있다. 이는 AI가 아프리카 전역의 법률, 권리, 디지털 생활을 급속도로 변화시키고 있지만, 법률, 기술, 사회 간의 구조적 불균형이 해악을 초래하고 있다는 점을 명확히 보여준다. 이는 단지 아프리카 대륙에 국한된 문제가 아니다. 기술이 권력을 재생산하고 확대하는 도구로 작용할 때, 지역적 맥락을 고려하지 않거나 소외된 계층을 대상으로 하는 설계를 배제하면 이는 결국 글로벌 기술 불평등을 심화시킬 수 있다. 컨퍼런스에서는 이러한 문제를 해결하기 위한 실행 가능한 조치들이 제시되었다. 완전히 새로운 법률을 만들기보다는 즉각적이고 구체적인 접근이 필요하다는 것이 핵심이었다. AI 기술 설계와 시스템적 배제 문제의 복합성 첫째, 거버넌스는 설계 시점부터 더 가까이 이동해야 한다. 마시니니 박사는 "AI 거버넌스는 피해가 발생한 이후에 적용되는 사후적 접근을 넘어, 설계 단계부터 윤리적 및 법적 원칙이 내재화되어야 한다"며 책임, 투명성, 권리 보호와 같은 법적 및 윤리적 원칙이 AI 시스템 자체에 내재되어야 하며, 피해 발생 후에 적용되어서는 안 된다고 강조했다. 이는 기술 개발과 규제의 원활한 조율이 반드시 이루어져야 함을 의미한다. 둘째, 기존 법적 프레임워크가 조율된 방식으로 활성화되어야 한다. 이를 위해 규제 당국 간의 더 강력한 조정, 더 명확한 집행 경로, 그리고 전통적인 경계를 벗어나는 기술에 대응할 수 있는 제도적 구조가 필요하다. 현재 많은 아프리카 국가들이 AI 관련 법률을 개별적으로 접근하고 있어 일관성 있는 거버넌스 체계 구축이 어려운 상황이다. 따라서 대륙 차원의 조정된 접근이 필수적이다. 셋째, 거버넌스는 맥락에 기반해야 한다. 프레임워크는 언어적 다양성, 고르지 못한 디지털 접근성, 사회경제적 불평등을 포함한 아프리카의 현실을 반영해야 한다. 서구에서 개발된 일률적인 거버넌스 모델을 그대로 적용하는 것은 현지 상황을 악화시킬 수 있다. 마시니니 박사의 제언처럼, AI 거버넌스는 '맥락 기반 접근'을 통해 현지 상황을 더 깊게 반영해야 한다. 이는 기술 규제라는 집단적 책임을 위한 중요한 출발점이 될 것이다. 아프리카 사례에서 우리가 배울 수 있는 교훈은 많다. 특히 한국 사회가 성공적으로 AI 윤리에 관한 프레임워크를 구축하기 위해서는 지역적 맥락을 고려하고 포용성을 갖춘 접근법을 수립해야 한다는 점이다. 한국은 비교적 디지털 접근도가 높은 사회로 분류되지만, 급속한 기술 발전이 특정 소수 인구(예: 고령자, 장애인)를 배제하는 경우를 이미 경험해 온 사례가 있다. 한국의 키오스크 사용 확산 과정에서 고령층이 겪은 어려움이나, 자동화된 민원 시스템에서 디지털 소외 계층이 직면한 문제들은 아프리카에서 지적되는 시스템적 배제와 본질적으로 유사한 현상이다. 이러한 경험은 아프리카 사례를 통해 윤리적 해결책의 필요성과 중요성을 더욱 강조한다. 한국 AI 윤리 논의가 얻을 시사점 아프리카와 한국의 사례를 비교하며 강조하고자 하는 것은, 기술 불균형의 문제는 단순히 데이터셋의 다양성 부족에서 비롯되기도 하지만, 이를 정책적, 법적, 윤리적 차원에서 해결하는 의지가 부족한 경우에도 심화된다는 점이다. 전 세계 기술 거버넌스 논의가 서구권에서 주도되고 있는 가운데, 아프리카와 같은 비서구권 지역의 목소리를 귀담아들어야 할 시점이다. 이번 컨퍼런스는 AI의 글로벌 확산 속에서 지역적 특성과 윤리적 고려가 간과될 때 발생하는 문제점을 명확히 보여주며, 기술 개발과 거버넌스 설계에 있어 더 포괄적인 접근 방식이 필요함을 강조한다. 한국은 이제 AI를 이용한 다양한 사회적·산업적 혁신을 진행 중이다. 이 과정에서 지역적 특수성을 반영하지 않은 서구 모델을 그대로 답습할 경우, 기술 발전의 혜택은 특정 계층에게만 머물 가능성이 높다. 따라서 한국의 규제기관과 기술 개발자들은 아프리카 사례를 통해 얻을 교훈을 활용하여 '포괄적' AI 윤리 및 거버넌스 설계를 구축해야 한다. 예를 들어, 다문화 가정 증가, 한국 내 사회적 불평등 심화, 지역 간 디지털 격차 등 현실적 문제를 바탕으로 AI 기술의 설계 단계에서부터 윤리적 기준과 포괄적 맥락을 내재화할 필요가 있다. 특히 한국어라는 단일 언어 중심 사회에서도 방언, 세대별 언어 사용 차이, 외국인 노동자와 다문화 가정 구성원의 언어적 다양성 등이 존재한다. AI 시스템이 이러한 다양성을 인식하지 못하고 표준어 중심으로만 설계된다면, 아프리카에서 발생하는 언어적 배제와 유사한 문제가 한국 내에서도 발생할 수 있다. 이는 기술이 사회 통합이 아닌 분열을 촉진하는 결과를 낳을 수 있다. 결론적으로, 글로벌 AI 거버넌스의 필요성은 점차 커지고 있다. 그러나 서구 중심적 시각에서 벗어나야 기술 발전이 초래하는 불평등과 배제를 완화할 수 있다. AI가 진정으로 "모두를 위한 기술"로 기능하기 위해서는 각 지역의 특성을 반영하고, 포괄적 맥락을 고려한 윤리적 설계 및 규제가 필수적이다. 이는 아프리카뿐만 아니라 한국에도 시사하는 바가 크며, 향후 AI 기술의 글로벌 확산 과정에서 반드시 함께 논의되어야 할 주제라 할 수 있다. 위츠대학교 컨퍼런스에서 제시된 세 가지 핵심 해결책—설계 단계부터의 윤리 내재화, 기존 법적 프레임워크의 조율된 활성화, 맥락 기반 거버넌스—은 전 세계 AI 정책 입안자들에게 중요한 지침이 될 것이다. 광고
관련 기사