‘산업진흥’ 초점 AI기본법 ‘위험성 경고’ 외면 논란
‘고위험’ 표현 대신 ‘고영향’
“시민단체 비판” 우려에도
산업계 입장 위주로 반영
최민희 “모든 것 해결 안돼”
인공지능 발전과 신뢰 기반 조성 등에 관한 기본법안(인공지능기본법)이 상임위 문턱을 넘어선 가운데 업계 입장을 대거 반영한 ‘진흥’에 초점을 맞춘 대신 시민단체 등이 요구한 ‘규제’나 ‘위험성 경고’에 미온적이라는 지적이 나오고 있다. 실제 국회 상임위 법안소위 논의과정에서 과도한 진흥 중심의 법안에 대한 문제제기가 있었지만 결국 ‘규제’부분은 크게 약화된 채 통과됐다. 이 법안은 다음달초 법사위에 올라갈 전망이다. 8명이 대표발의한 법안은 공청회까지 마쳤으나 8개 법안은 기본법 제정인데도 불구하고 공청회 없이 곧바로 소위로 직행해 병합 심사됐다.
28일 국회 과학기술정보방송통신위에 따르면 지난 21일 인공지능기본법을 심의하는 마지막 법안소위에서는 ‘고위험’과 ‘고영향’이라는 단어 사용을 두고 논쟁을 벌였다.
당시 회의록에 따르면 정부측 의견이 반영된 위원회 대안(수정안)에는 ‘고위험’ 대신 ‘고영향’으로 명기돼 회의에 올라왔다. 정점식 조인철 김성원 민형배 의원이 각각 발의안 법안에는 고위험영역 인공지능의 범위를 구체적으로 열거했고 권칠승 의원은 고위험 인공지능의 구체적인 기준과 유형을 대통령령에 정하도록 했다. 또 권 의원은 개발과 이용이 금지되는 ‘금지된 인공지능’을 정의하기도 했다.
김건호 수석전문위원은 검토보고서를 통해 “‘금지된 인공지능’과 ‘고위험영역 인공지능’ 및 ‘생성형 인공지능’은 가능한 한 구체적이고 명확히 규정할 필요가 있다”고 했다. 그러면서 이날 소위에서는 “제가 최종적으로 위험이라는 것을 선택한 이유는 EU의 AI법은 인공지능 위험의 정도에 따라 노리스크, 하이리스크 등을 사용해 언론이나 국민들에게 다 수용된 상황이어서 많이 사용하는 ‘위험’이라는 용어를 쓰게 됐다”고 했다.
하지만 중소벤처기업부는 “인공지능기술을 개발하는 첨단 기술기업이 대중으로부터 위험한 기업으로 인식되는 것을 방지하기 위해 ‘금지된 인공지능’ ‘고위험 인공지능’을 가치중립적인 단어로 변경할 필요가 있다”고 했다. ‘가치중립적 단어 사용의 필요성’에 대해서는 이해민 의원이 주로 설명했다.
한민수 의원은 “AI기본법이 발전과 규제라면 어느 한쪽을 등한시할 수는 없다”며 ‘고영향’이라는 표현이 위험성 경고를 약화시킬 수 있다는 취지로 말했다. 이정헌 의원은 “AI에 대한 위험성에 대해 규제 필요성을 끊임없이 강조해 온 시민단체쪽에서는 (‘위험’을) ‘영향’으로 바꿨을 경우 상당히 국회와 정부의 의지가 약한 것 아니냐라고 하는 문제를 분명히 제기할 수는 있는 것 같다”고 우려했다.
또다른 쟁점은 처벌 규정이었다. 상임위를 통과한 법안에서는 법 위반에 대한 처벌로 최대 ‘과태료 3000만원’을 규정했다. 법안 40조 ‘사실조사 등’에서는 과기부장관이 법 위반 등이 의심될 경우 인공지능사업자에게 자료 제출을 요구하거나 조사를 할 수 있게 하고 위반 사실이 확인되면 해당 위반행위의 중지나 시정을 위해 필요한 조치를 명할 수 있게 했다. 그럼에도 불구하고 이를 준수하지 않을 경우엔 행정벌인 과태료 3000만원 이하가 부과된다.
민형배 의원은 “금지된 인공지능을 개발하거나 이용한 자는 5년 이하의 징역 또는 5000만원 이하의 벌금에 처한다”고 요구했지만 받아들여지지 않았다.
과기부는 “사업자 의무 위반에 대한 제재 규정 도입은 인공지능사업의 수준에 대한 고려와 함께 사회적 합의가 필요하다”며 “EU도 고위험 인공지능에 대한 규제시행을 2~3년 후로 정하고 있는 만큼 단계적으로 추후 보완 입법을 추진해나갈 필요가 있다”고 했다. 중소벤처기업부도 “인공지능 관련 기술개발은 현재 초기 단계”라며 “인공지능기술에 대한 벌칙조항의 도입은 중소기업의 혁신성장을 위축시키고 기술개발 시도를 저해할 우려가 있다”고 했다.
이와 관련해 김 수석전문위원은 “과징금(부과)은 사업자들이 굉장히 부정적인 입장이어서 과태료 3000만원 정도는 적정하지 않는가 해서 이런 체계로 두게 된 것“이라고 설명했다. 과기부는 “원래 정부안에는 실효성 확보 방안이 없었으나 어떻게든 실효성 확보방안이 필요하다는 지적이 있어서 행정실과 상의해 넣었다”고 했다.
이와 관련 최민희 과방위원장은 “이번 AI기본법으로 모든 것이 다 해결될 수는 없다”며 “특히 생성형 AI로 인한 인권침해 가능성 등 부작용과 위험성을 우려하는 시민사회의 목소리에 계속 귀 기울이겠다”고 했다.
이지은 참여연대 공익법센터 선임간사는 “AI 기본법은 AI 산업 육성에 치우쳐 있고, 시민의 안전과 인권을 보호하는데 미흡하다”며 “한국사회가 용인해서는 안되는 비윤리적인 AI를 금지하는 내용도 포함되지 않았고, 고위험(고영향) AI에 대한 실효성 있는 규제 조항도 빠졌다”고 했다. 그러면서 “시민사회는 인공지능이 국민의 생명과 안전 및 민주주의에 끼칠 위험을 완화하고 방지하기 위해서 기업에 실효성 있는 책임과 의무를 부과해야 한다고 주장해 왔지만 이러한 내용은 빠진 것”이라며 “전문가들조차 인공지능의 위험에 대해 경고하고 있는 상황에도 불구하고 이번 법안 심사 논의 과정에서 이같은 우려가 제대로 반영되지 않았다”고 했다.
그러면서 “AI 기본법을 졸속 처리한 국회 과방위원회를 규탄한다”며 “남은 입법 절차에서 AI가 국민의 생명과 안전 및 민주주의에 끼칠 위험을 완화할 수 있는 방안을 마련할 것을 촉구한다”고 했다.
박준규 기자 jkpark@naeil.com