언어 표현이 AI 인식에 미치는 영향 스마트폰 음성 비서에게 "날씨 알려줘"라고 말했을 때, 당신은 그저 기계를 조작했다는 생각을 할까요, 아니면 어떤 '존재'가 요청을 해결했다고 믿을까요? 이 질문은 인공지능(AI)이 우리 일상에서 점점 더 자연스럽게 통합되면서 등장한 새로운 관점을 반영합니다. 우리는 AI를 '똑똑하다', '안다'라고 쉽게 표현하지만, 이는 과연 무해할까요, 아니면 우리가 AI를 오해하도록 유도하는 아슬아슬한 언어적 선택일까요? 아이오와 주립대학교(Iowa State University)의 최근 연구는 바로 이 지점에 주목했습니다. 연구에 따르면, AI를 묘사할 때 사용하는 언어, 특히 인간적인 특성을 부여하는 표현이 대중의 AI 이해에 심각한 영향을 미칠 수 있습니다. AI를 '똑똑하다'고 부르거나 '안다'고 말하는 것이 무해하게 들릴 수 있지만, 이러한 표현은 AI의 실제 능력에 대해 사람들을 조용히 오도할 수 있다는 것입니다. AI의 한계를 명확히 알지 못한 채, 'AI가 이해한다', 'AI가 생각한다'는 표현이 반복된다면 사람들은 AI의 능력을 과대평가하거나 잘못 이해할 가능성이 높다는 것입니다. 이번 연구는 단순한 언어 분석 교과서라기보다 AI 시대를 살아가는 우리 모두가 주목해야 할 사회적, 윤리적 이슈를 제기하고 있습니다. 연구를 진행한 영어 교수 조 매키비츠(Jo Mackiewicz)와 연구원 제닌 오네(Jeanine Aune)는 20개국에서 발간된 영어 뉴스 기사로 구성된 200억 개 이상의 단어 데이터 세트를 활용해 뉴스 기사 속 AI 관련 표현을 분석했습니다. 이들의 연구 '인공지능 의인화: AI 및 ChatGPT에 사용된 정신 동사의 코퍼스 연구(Anthropomorphizing Artificial Intelligence: A Corpus Study of Mental Verbs Used with AI and ChatGPT)'는 '테크니컬 커뮤니케이션 쿼터리(Technical Communication Quarterly)'에 게재되었습니다. 연구팀은 AI 및 ChatGPT와 같은 용어와 함께 '배우다', '의미하다', '알다'와 같은 정신 동사가 얼마나 자주 사용되는지에 초점을 맞췄습니다. 그 결과는 다소 예상 밖이었습니다. 뉴스 작가들이 일상 대화보다 훨씬 더 신중하고 절제된 언어를 사용하며, 인간적인 표현을 의도적으로 자제하는 경향을 보였습니다. 뉴스 작가들은 AI 관련 용어와 정신 동사를 자주 짝짓지 않았습니다. 전체적으로 연구자들은 뉴스 보도에서 AI의 의인화가 예상보다 덜 빈번하고 더 미묘하다는 것을 발견했습니다. 매키비츠 교수는 "AI의 의인화는 우리가 생각하는 것보다 훨씬 덜 흔하고 훨씬 더 미묘하다"고 강조했습니다. 이는 의인화(anthropomorphism)를 과도하게 사용하면 독자들의 AI에 대한 인식에 불필요한 혼란을 줄 수 있다는 자각에서 비롯된 것으로 보입니다. AI에 인간적인 특성을 부여하는 '의인화'는 일상 대화에서는 흔하지만 뉴스 작성에서는 훨씬 덜 나타난다고 연구팀은 밝혔습니다. 하지만 연구는 여기서 끝나지 않았습니다. 비록 의인화 표현의 빈도가 예상보다 낮았지만, 일부 표현은 그 미묘함 속에서도 AI의 능력을 과대평가하도록 유도할 수 있는 잠재적 위험성을 내포한 것으로 나타났습니다. 연구팀은 모든 정신 동사 사용이 동일하지 않다는 것을 보여주었습니다. 일부 구문은 인간과 유사한 특성을 암시하는 데 더 가깝습니다. 예를 들어, "AI는 실제 세계를 이해해야 한다"는 진술은 인간의 추론, 윤리 또는 인식과 관련된 기대를 내포할 수 있습니다. 이러한 사용은 단순한 설명을 넘어 더 깊은 능력을 시사하기 시작합니다. 'AI가 실제 세계를 이해한다'는 표현은 AI가 단순한 계산 기계를 넘어 인간과 유사한 윤리적 사고나 추론 능력까지 보유한 것처럼 암시할 수 있습니다. 뉴스 기사 속 AI 의인화 실태 매키비츠 교수는 이러한 언어 사용의 양면성을 다음과 같이 설명했습니다. "우리는 일상생활에서 정신 동사를 항상 사용하므로, 기계에 대해 이야기할 때도 그러한 용어를 사용하는 것이 이치에 맞는다. 이는 기계와 관계를 맺는 데 도움이 된다." 그러나 동시에 그는 기계에 정신 동사를 적용할 때, 인간과 AI가 할 수 있는 것 사이의 경계를 흐리게 할 위험도 있다고 경고했습니다. 연구팀은 "작성자에게 이러한 뉘앙스는 중요하다. 우리가 선택하는 언어는 독자들이 AI 시스템, 그 능력 및 그에 대한 책임이 있는 인간을 이해하는 방식을 형성하기 때문이다"라고 강조했습니다. "우리가 기계를 의인화할 때 사용하는 언어는 의외로 강력한 메시지를 전달할 수 있다"며, '정신 동사'(mental verbs) 사용의 책임감을 언급했습니다. 그렇다면, 이런 언어 표현들이 초래할 수 있는 더 큰 문제는 무엇일까요? 가장 큰 위험은 사람들이 AI가 인간처럼 생각하거나 행동한다고 잘못 믿게 되는 것입니다. 이는 단순한 오해에서 그치지 않습니다. AI가 내린 결정을 맹목적으로 신뢰하거나, AI가 내는 오류에 대한 책임 소재를 명확히 하지 못할 가능성을 키우는 일이기도 합니다. 특히 흥미로운 점은 연구원 제닌 오네가 발견한 수동태 사용 패턴입니다. 오네는 이러한 의인화 사례들이 종종 수동태로 작성되어 책임이 기술 자체로부터 인간 행위자에게로 옮겨진다고 설명했습니다. 즉, "AI가 결정했다"보다 "AI에 의해 결정되었다"는 식의 표현이 사용될 때, 실제로는 그 AI를 설계하고 운영한 인간의 책임이 더 명확해진다는 것입니다. 하지만 역설적으로 이러한 수동태 표현은 독자들에게 행동의 주체를 불명확하게 만들 수 있습니다. 결과적으로 AI의 의인화는 때때로 책임 소재를 흐릴 수 있는 도구로 작용할 수 있다는 우려가 제기됩니다. 반론을 제기할 수 있는 부분도 분명 존재합니다. 기술을 대중적으로 알리고 빠르게 이해시키기 위해 의인화된 표현은 강력한 설명 도구로 활용될 수 있습니다. 복잡한 기술적 개념을 일반 대중에게 전달할 때, "AI가 학습한다" 또는 "AI가 이해한다"는 표현은 직관적인 이해를 돕는 은유로 기능할 수 있습니다. 실제로 많은 기술 커뮤니케이션 전문가들은 이러한 의인화 표현이 기술적 장벽을 낮추는 데 효과적이라고 주장합니다. 그러나 이번 연구가 제기하는 핵심 질문은 이런 표현이 일상적 사용을 넘어 너무 빈번하거나 부정확하게 사용될 때, 오히려 혼란을 초래할 수 있다는 점입니다. AI의 기술적 작동 원리를 제대로 설명하지 않고 단순히 '똑똑하다'고 표현한다면, 이는 개발자나 공학자의 의도와 달리 AI 자체에 대한 비합리적 기대를 높일 수 있습니다. 특히 AI 기술의 한계와 오류 가능성을 이해하지 못한 채 의인화된 표현만 접하는 일반 대중은 AI를 과신하거나 잘못된 신뢰를 형성할 위험이 있습니다. AI 시대의 언어 선택, 책임을 묻다 한국을 비롯한 여러 사회에서도 AI 의인화 문제는 현재진행형입니다. 특히 언론의 AI 관련 보도는 자칫 잘못된 기대를 담은 단순화된 언어로 문제를 키울 소지가 있습니다. AI는 본질적으로 도구에 지나지 않음에도, 때로는 '판단한다', '예측한다', '생각한다'는 방식으로 기술되고 있습니다. 이는 비단 언론만의 문제는 아닙니다. 교육이나 마케팅 분야에서도 AI를 지나치게 인간적인 존재로 포장하는 사례는 종종 목격됩니다. 이대로 이런 관행이 지속된다면, 대중은 AI 기술의 한계뿐 아니라 그만큼의 책임이 필요한 제약 역시 제대로 이해하지 못하게 될 위험이 있습니다. 이번 아이오와 주립대학교 연구의 방법론도 주목할 만합니다. 200억 개 이상의 단어로 구성된 대규모 코퍼스를 분석함으로써, 연구팀은 개별 기사나 작가의 특성을 넘어 전체적인 언어 사용 패턴을 파악할 수 있었습니다. 이는 단순한 인상이나 일화가 아니라 데이터 기반의 실증적 결과를 제공한다는 점에서 의미가 있습니다. 특히 20개국에서 발간된 영어 뉴스 기사를 분석함으로써, 지역이나 문화를 넘어서는 보편적 경향을 확인할 수 있었다는 점도 이 연구의 강점입니다. 이번 연구가 제시하는 교훈은 단순하지만 깊은 울림을 남깁니다. 언어는 단순히 정보를 전달하는 수단이 아니라, 우리가 세상을 인식하고 이해하는 방식을 근본적으로 형성합니다. AI는 태생적으로 인간과는 본질적으로 다른 존재입니다. 그런데도 우리가 언어를 통해 AI를 '의인화'한다면, 그 차이는 점점 더 희미해지고 궁극적으로는 기술과 인간 간의 책임감 경계마저 흐려질 가능성이 있습니다. 우리가 선택하는 단어 하나하나가 독자들이 AI 시스템, 그 능력, 그리고 그에 대한 책임이 있는 인간을 이해하는 방식에 영향을 미칩니다. 결국, AI 시대의 언어 사용은 단순히 기술적 문제를 넘어 윤리적 문제로까지 확장됩니다. AI와 인간 사이의 경계를 분명히 그리면서도, 우리가 필요로 하는 협력과 효과적인 의사소통 방식을 동시에 고려하는 새로운 언어 학습이 필요합니다. 기술 작가, 언론인, 교육자, 마케터 모두가 자신이 사용하는 언어가 대중의 AI 이해에 어떤 영향을 미칠지 신중히 고려해야 할 시점입니다. 독자 여러분, 지금 우리가 사용하는 AI와 관련된 표현들은 그저 단순한 단어들일까요, 아니면 한 걸음 더 나아가 미래를 형성할 도구일까요? 이 질문에 대한 답은 우리 모두의 언어 선택에 달려 있습니다. 광고
관련 기사