기고
원칙에서 행동으로, 안전하고 포용적인 AI 혁신
헐리우드 스타배우 스칼렛 요한슨과 최근 GPT-4o(포오)를 출시한 오픈AI가 목소리를 두고 분쟁 중이다. 요한슨 측은 오픈AI의 거듭된 요청에도 목소리 출연을 거절했는데도 오픈AI가 무단으로 자신의 목소리를 GPT-4o에 사용했다고 주장한다. 물론 오픈AI는 이 주장을 정면으로 부인한다.
둘 중 누가 옳은지는 지켜봐야겠지만 동일한 인공지능 기술을 활용해서 여러분의 사진 몇장과 약간의 음성 데이터만으로도 여러분과 구별하기 어려운 아바타를 금방 만들 수 있다.
인공지능 위험 대비한 ‘서울 AI 정상회의’
섬뜩한 사실은 이런 기술이 이미 범죄에 악용되고 있다는 사실이다. 사기범들이 가족인 것처럼 전화를 걸어 여러분을 감쪽같이 속일 수 있다. 이쯤 되면 인공지능의 위험에 대해 일반인들도 경각심을 가져야 할 것 같다.
지난 21~22일 이틀에 걸쳐 서울에서 열린 ‘AI 서울정상회의’는 이런 강력한 성능의 인공지능의 위험에 대응하는 글로벌 거버넌스 구축을 목표로 했다.
2023년 영국 블레츨리 파크에서 열렸던 ‘AI 안전성 정상회의’의 후속인 이 회의는 AI의 윤리적 개발과 활용에 대해 각국 정상이 합의한 원칙을 담은 ‘서울 선언문’을 채택했다.
서울정상회의에서는 이에 더해 국내외 AI 기업들이 보다 실효성 있는 AI 안전 정책을 자율적으로 마련하겠다는 약속에 서명했다는 점이 중요하다. 바람직한 AI 개발과 활용에 대해 원칙을 넘어 행동으로 나아가고 있는 것이다.
얼핏 생각하면 위험한 인공지능은 안 만들면 그만이 아닌가 싶다. 하지만 신약 개발처럼 좋은 목적을 위해 설계된 인공지능도 아주 간단한 변형만으로 인류가 아직 경험해보지 못한 독극물을 만드는데 활용될 수 있다.
그렇다면 이런 ‘이중사용(dual use)’의 문제도 있는 인공지능 사용을 아예 금지하면 어떨까? 위험은 일단 피하고 보는 것이 현명하지 않을까?
조금만 생각해 봐도 그렇지 않다. 개인적 수준에서는 비행기 사고가 무서워 비행기를 아예 안 타겠다고 결심할 수 있다. 하지만 그 사람도 모든 곳을 걸어서 다니지는 않을 것이다. 결국 우리는 위험과 혜택을 저울질하며 선택한다. 신기술에 대한 사회적 결정도 마찬가지다.
AI의 위험 대비 글로벌 거버넌스 세워야
인공지능은 이미 사회 곳곳에서 활용되고 있으며 앞으로 기대되는 혜택도 크다. 전기처럼 범용기술로 사회 전반에 퍼질 것이라고 예측하는 전문가도 많다. 아무리 위험회피 성향이 있는 사람이라도 감전의 위험 때문에 전기를 쓰지 않겠다고 결심할 사람은 많지 않을 것이다.
게다가 사회적으로 특정 기술을 위험이 있다는 이유만으로 거부한다면 그 기술 사용으로부터 얻을 수 있는 혜택을 포기하는 ‘기회비용’을 지불하는 셈이라고 볼 수도 있다. 이런 점을 고려해 이번 ‘AI 서울정상회의’에서는 ‘안전’만이 아니라 인류에게 혜택을 줄 AI ‘혁신’과 그 혜택이 두루 향유되는 ‘포용’을 함께 강조했다.
인류의 역사에서 기술혁신이 자동적으로 인류복지로 연결되지는 않았다. 기술혁신 과정을 안전하게 관리하고 그 혜택을 인류 전체가 누릴 수 있는 효율적인 거버넌스가 함께 작동했을 때만 그런 일이 발생했다.
이번 ‘AI 서울정상회의’가 이런 의미에서 인공지능의 바람직한 개발 및 활용을 위한 중요한 첫걸음이 되기를 희망한다.
이상욱 한양대 교수 과학기술철학