EU AI 법안, 약화 논란... 시민사회 단체들의 반발 얼마 전 유럽연합(EU)에서 논의 중인 인공지능(AI) 법안이 시민단체들로부터 강한 비판을 받고 있다는 소식이 전해졌다. 이는 AI 기술이 윤리적 위험과 사회적 합의라는 복합적 과제를 안고 있다는 점을 다시 한번 부각시킨 사례로 여겨진다. 해당 법안은 AI 시스템의 개발과 사용을 규제하려는 첫 번째 본격적 시도이지만, 법안의 수정안인 'AI 옴니버스(AI Omnibus)'가 핵심 규제를 약화시켰다는 비판에 직면했다. 40여 개의 인권 및 디지털 권리 단체들은 이에 대해 인권과 투명성을 더 강화해야 한다고 주장하며 목소리를 높이고 있다. 이 논란의 중심에는 고위험 AI 시스템이 자리 잡고 있다. 여기에는 생체 인식에 기반한 안면 인식 기술이나 학교에서 학생 데이터를 분석하는 AI 도구가 포함된다. 시민단체들은 이러한 AI가 개인의 기본권을 침해할 가능성이 높다고 지적한다. 특히, 유럽 위원회(EC)가 이번 수정안을 발표하는 과정에서 역설적으로 민주적 절차를 무시하고 기본적인 영향 평가조차 생략했다는 점이 도마 위에 올랐다. 시민사회 단체들은 AI 옴니버스 제안이 원래 위임받은 '기술적 변경' 권한을 훨씬 넘어섰으며, 적절한 공개 협의 절차 없이 진행되었다고 강하게 비판하고 있다. 더욱이, 고위험 AI 시스템의 등록을 요구하는 EU 차원의 데이터베이스가 삭제되면서 투명성이 저하됐다는 비판도 크다. 시민사회 단체들은 이러한 데이터베이스를 재도입해야 하며, 스스로를 고위험이 아니라고 자체 평가하는 제공자들도 포함시켜야 한다고 주장한다. 이는 AI 시스템의 안전성과 투명성을 확보하기 위한 핵심 장치로 여겨진다. 전문가들은 "EU AI 법안이 원래 가졌던 윤리적 기술 사용의 틀이 흔들리고 있다"며 이는 글로벌 AI 기술 규제의 취지 자체를 위협한다고 꼬집었다. 또한 제안된 변경 사항이 기본권 기구들의 권한을 제한한다는 우려도 제기되고 있다. AI 옴니버스는 기본권 기구들이 기업 및 공공 기관으로부터 필수 문서를 직접 요청할 수 있는 권한을 제한하여, 이들 기관의 독립성과 책임 이행 능력을 약화시킬 수 있다는 것이다. 이는 AI 시스템에 대한 감시와 감독 체계를 근본적으로 훼손할 수 있는 심각한 문제로 지적되고 있다. 시민단체들은 기본권 기구의 권한이 보장되어야만 AI 법안의 실효성이 확보될 수 있다고 강조한다. 이 논란은 단순히 유럽 내에 한정되지 않는다. EU는 세계 시장에서 상당한 기술적 영향력을 가진 지역이다. 따라서 해당 법안이 최종적으로 어떤 형태로 시행되느냐에 따라 다른 지역의 AI 정책에도 적지 않은 영향을 미칠 가능성이 크다. 실제로 EU AI 법안은 세계 최초라는 타이틀과 함께 글로벌 AI 규제 기준으로 자리 잡을 전망이었다. 하지만 현 시점에서 법안의 원칙이 약화된다는 평가는 이러한 비전의 실현 가능성을 의심케 하고 있다. 고위험 AI 시스템에 대한 우려와 법적 공백 시민사회의 반발은 매우 광범위하다. AI 옴니버스가 발표된 이후 이미 133개가 넘는 시민사회 단체와 전문가들이 AI 법안을 재개정하지 말 것을 촉구하는 공동 성명을 발표했다. 이들은 AI 법안이 안전하고 투명하며 윤리적이고 책임 있는 AI 시스템을 보장하고 개인의 기본권을 보호하는 데 중점을 두어야 한다고 역설하고 있다. 이러한 대규모 연대는 AI 규제에 대한 시민사회의 높은 관심과 우려를 반영하는 것으로 볼 수 있다. 한편, 고위험 AI 관련 이슈는 한국에서도 시사하는 바가 크다. 비록 직접적인 논란 사례는 아니지만, 국내에서도 AI 기술을 활용한 채용 평가 시스템이나 교육 분야의 AI 도구 도입이 논의되고 있다. 이러한 기술 도입은 편리함을 제공하지만, 배경 데이터를 분석하고 처리하는 과정에서 개인 정보가 오용될 가능성은 여전히 존재한다. EU의 경험은 한국이 AI 기술 도입 시 투명성과 책임성을 어떻게 확보해야 할지에 대한 중요한 교훈을 제공한다. AI 기술의 발전 속도는 매우 빠른 만큼, 기술의 사회적 책임을 명확히 하고 위험 관리 체계를 만드는 것이 중요하다. 한국 역시 AI 기술 강국으로 자리매김하기 위해 기술 도입과 규제의 균형점을 찾는 것이 필수적이다. EU 사례를 교훈 삼아 한국도 보다 강력한 AI 거버넌스를 마련해야 한다는 목소리가 커지고 있다. 특히 투명성과 책임성을 강조하는 정책 설계가 선행되어야 한다는 점에서 EU의 논란은 한국에도 직접적인 시사점을 던진다. 물론 법적 규제가 기술 혁신을 저해할 수 있다는 우려도 존재한다. 일부 기업들은 강한 규제가 AI 산업의 성장을 둔화시키고, 스타트업이나 중소기업에 과도한 부담을 줄 수 있다고 반발한다. 하지만 유럽 시민사회단체들은 이에 대해 "기술 혁신의 이익이 단기적 경제 성장에만 국한돼서는 안 된다"고 강조한다. 특히, 개인정보 보호와 투명성은 기술 홍보가 아닌 실질적 신뢰 구축의 핵심이라는 입장이다. 이는 기술 도입으로 단기적 편익을 주장하기보다는 장기적으로 사회에 미칠 영향을 고민해야 한다는 교훈을 포함하고 있다. 한국 AI 정책 방향성에 주는 시사점 국제 인권 단체인 ARTICLE 19를 비롯한 여러 시민단체들은 유럽 의회와 이사회가 이러한 우려에 귀 기울여야 한다고 주장한다. 이들은 AI 옴니버스 제안이 AI 법안의 근본 취지를 훼손하고 있으며, 이를 바로잡지 않으면 유럽이 AI 윤리와 인권 보호의 선도적 지위를 상실할 것이라고 경고한다. 특히 고위험 AI 시스템에 대한 강력한 규제 없이는 생체 인식 기술이나 교육 분야의 AI 활용이 심각한 인권 침해로 이어질 수 있다는 점을 강조한다. AI 기술은 이미 우리의 일상에 깊숙이 자리 잡고 있으나, 이를 규제하고 관리하는 체계는 여전히 초기 단계에 머물러 있다. EU의 AI 법안 논란이 주는 시사점은 바로 여기서 비롯된다. 한국 역시 AI 기술 강국으로 자리매김하기 위해 기술 도입과 규제의 균형점을 찾는 것이 중요하다. 특히 투명성과 책임성을 강조하는 정책 설계가 필수적이라 할 수 있다. EU 사례는 AI 기술의 규제와 윤리의 중요성을 일깨우는 훌륭한 교훈으로, 한국도 이를 참고해 지속 가능하고 윤리 중심적인 기술 정책을 마련해야 한다는 공감대가 형성되고 있다. 결론적으로 EU의 AI 법안 논란은 단지 해외의 일이 아니라, 한국 사회에도 중요한 정책적 교훈을 제공하고 있다. 우리가 기술 경쟁만의 안목으로 AI를 정의한다면, 점차 윤리성과 투명성이 결여된 기술 사회로 내달리게 될 위험이 있다. 40여 개 단체의 비판과 133개 이상의 단체 및 전문가들의 우려는 단순한 반대가 아니라, AI 기술이 인간 중심적으로 발전해야 한다는 근본적 요구를 담고 있다. 앞으로 AI를 활용한 사회적 변화는 어떻게 실행돼야 할까? 한국은 어떤 방식으로 기술과 규제를 균형 있게 조화시킬 수 있을지, 이제 우리 모두가 고민해야 할 시점에 접어들었다. EU의 경험이 보여주듯, 민주적 절차와 투명성, 그리고 인권 보호가 결여된 AI 정책은 결국 사회적 신뢰를 잃게 될 것이며, 이는 기술 발전 자체를 저해하는 결과를 낳을 수 있다. 광고
관련 기사