기고
인공지능(AI) 범죄 위협에 대비해야
지난 1월 바이든 미국 대통령이 대선후보 예비경선을 앞두고 민주당 당원들에게 투표 거부를 독려하는 전화를 걸어 화제가 되었는데, 알고 보니 인공지능(AI)을 활용해 특정인을 사칭하는 딥페이크 기술이 사용된 것이다.
지난달 우리나라에서는 윤석열정부가 부정과 부패를 일삼았다는 내용의 딥페이크 영상이 온라인상에 확산되어 이슈가 되었다. 지속적으로 우려해 왔던 AI의 부작용이 본격적으로 나타나면서 사회적 혼란을 가중시키는 모양새다.
AI 위협에 대한 지속적인 경고
위 사례와 같이 AI 기술을 이용해 범죄에 활용하는 행위를 ‘AI 이용범죄’라 한다. AI 이용범죄는 크게 두가지 측면에서 심각한 문제를 발생시킨다. 첫째 기존 범죄의 효율성과 정교함을 대폭 강화할 수 있다. 개인 맞춤형 피싱 공격이나 사이버 보안 시스템을 우회하는 등의 사이버 범죄가 이에 해당한다. 둘째, AI 자체가 새로운 형태의 범죄를 창출할 수 있다는 점이다. 예로 기존과는 전혀 다른 수법의 딥페이크 사기, 가짜뉴스, 사이버 성폭력 등이 발생할 수 있다.
일반 대중에게는 아직 익숙하지 않으나 전문가들은 AI 서비스를 범죄의 대상으로 하는 ‘AI 침해범죄’ 위협에 대해서도 경고한다. 드론 AI에 침투해 특정인을 공격하도록 유도하거나 자율주행 AI의 성능을 저하시켜 고의적으로 사고를 발생시키는 등 고도의 기술을 이용해 AI를 공격하는 행위들이 여기에 해당한다. 다행히 아직 사회적으로 이슈가 된 AI 침해범죄는 나타나지 않았으나 기술적으로 충분히 발생 가능하다는 연구가 다수 발표되고 있는 만큼 관심을 가질 필요가 있다.
앞서 설명한 범죄 위협들은 형법 정보통신망법 저작권법 등과 같은 명확한 처벌 근거 조항이 있지만 이와 달리 현행 법률로 처벌하기 어려운 경우도 다수 있다. 예로 2023년 벨기에에서는 대화형 AI를 사용하던 한 남성이 자살하는 사건이 발생했는데, 조사 결과 AI가 지속해서 극단적 선택을 유도하고 구체적인 방안을 제시했던 것으로 밝혀졌다. 일반적으로 극단적 선택 유도 문구를 유포할 경우 자살예방법과 형법에 의해 처벌 가능하나 행위의 주체가 누구인가에 대한 논란이 발생했다. 이외에도 AI 서비스가 인종차별 혹은 성차별과 같은 사람의 윤리의식과 어긋나는 혐오 표현을 생성하는 사례가 자주 발생하고 있다.
AI의 부작용 선제적으로 대응해야
AI 범죄 위협들에 대응하기 위해서는 다각적인 접근이 필요하다. 우선, 기술적 대응책 개발이 시급하다. AI 기술을 이용한 범죄 탐지 및 대응 시스템의 개발은 필수적이며, 이를 위한 연구와 투자가 지속적으로 이루어져야 한다. 또한, AI 범죄에 대한 법적 규제와 정책 마련도 중요하다. 기술 발전 속도를 고려할 때, 유연하고 발전적인 법적 프레임워크(판단의 틀)가 필요하다.
교육과 인식 제고 또한 중요한 역할을 한다. 일반 대중뿐만 아니라 정책 결정자, 법 집행 기관, 기술 개발자들에게 AI 범죄의 위협과 대응 방안에 대한 인식을 높이는 것이 중요하다. 이는 사회 전반적으로 AI 기술의 긍정적인 측면을 촉진하면서 부정적인 사용을 최소화하는 데 기여할 수 있다.
AI가 사회와 경제 전반에 걸쳐 우리의 일상생활과 의사 결정 과정에 깊숙이 파고드는 것은 명약관화하다. 과거 인터넷의 등장과 SNS의 대중화로 인한 부작용을 미리 대비하지 못해 값비싼 사회적 비용을 치르면서 얻었던 교훈을 잊지 말고 AI의 부작용을 선제적으로 대응해야 한다.
정두원 성균관대학교 과학수사학과 교수