“22대 국회 AI법안들, ‘금지·고위험 AI’ 규제 전무...보완 필요”

AI기본법 제정 방향 토론회 “AI 위험 규제 필요”...산업계 “규제보다 진흥”

11일 국회 의원회관에서 진행된 'AI의 공존을 위한 입법 방향' 토론회가 진행되고 있다. ⓒ정보인권연구소

22대 국회가 개원하자마자 AI(인공지능)기본법안이 연이어 발의됐지만, 대부분 인권보호 측면에서 부족하다는 지적을 받았던 이전 법안과 큰 차이가 없어 보완이 필요하다는 주장이 나왔다. 특히 운영은 물론 개발까지 금지해야 할 '금지AI'에 대한 규제에 대해선 침묵하고 있다는 비판이 제기됐다.

11일 국회 의원회관에서 진행된 'AI의 공존을 위한 입법 방향' 토론회에 참석한 전문가들은 AI의 위험성에 대한 체계적 접근과 이를 관리할 거버넌스 구성에 대해 토론했다. 이날 토론회는 국회 과학기술정보방송통신위원회 등 관련 상임위와 진보네트워크, 정보인권연구소 등 시민단체가 공동으로 주최했다.

발제를 맡은 오병일 진보네트워크 대표는 EU와 미국의 AI 규제 사례를 통해 세계적인 AI 규제 흐름을 설명했다. EU는 올해 3월 AI법(AI Act)을 유럽의회에서 통과시킨 후, 지난 5월 29일 유럽연합 집행위원회(EC) 안에 'AI사무국'을 설치해 AI법의 본격적인 운영에 들어간 상태다. 미국도 지난해 10월 조 바이든 대통령의 이른바 'AI행정명령'을 통해 AI의 부정적 영향에 대한 대응에 나섰다.

오 대표는 "금지·고위험 인공지능의 규제 필요성에 대해 국제적 인식 확산되고 있다"면서 "이미 유엔은 2020년부터 인공지능 사용에 대해 책임성을 완전하게 보장하는 감독 체계와 절차를 확립하라고 권고한 바 있다"고 설명했다.

EU의 AI법은 AI를 위험도 단계에 따라 ▲금지된 AI ▲고위험AI ▲제한적 위험AI ▲최소 위험AI 등으로 구분하고 단계별로 규제하고 있다. 강한 규제가 적용되는 것은 금지된 AI와, 고위험AI다. 금지된 AI는 EU 기본권을 명백히 위반하는 수용불가한 위험도를 가진 AI를 말하며, 운영은 물론 개발도 금지된다. 이에 따라 공공장소에서 실시간 원격 생체인식 시스템이나 감정인식 시스템 등은 원천적으로 유럽에서는 금지된다.

고위험AI는 안전과 권리 두가지 기준에서 해악을 끼칠 위험이 있는 AI다. 특히 EU는 권리 침해 위험과 관련해 도로·수도·가스·전기 등 중요인프라나, 노동자 채용·성과관리, 법집행 등 해당되는 분야를 구체적으로 들고 있다. EU는 고위험AI에 대해서 위험관리 시스템 구축, 이용자(deployer)에 대해 준법 사용설명서 제공 등 구체적인 의무를 부과하고 있다.

규정을 어길 경우 벌칙도 강력하다. 금지된 AI에 대한 의무를 위반할 경우 총매출액의 최대 7%, 최대 3,500만유로(약 523억원)의 과징금이 부과되며, 고위험AI에 대한 의무를 지키지 않을 경우, 총매출액의 최대 3%, 최대 1,500만유로(약 224억원)의 과징금 처벌을 받는다.

미국의 AI행정명령은 ChatGPT(챗지피티)와 같이 강력한 범용AI에 대한 규제에 초점이 맞춰져 있다. 강력한 AI를 안전하게 관리하기 위한 연방정부 차원의 접근 방식에 대해 8가지 지도 원칙을 세워뒀다. ▲안전과 보안 ▲혁신과 경쟁촉진 ▲근로자 지원 ▲평등과 시민권 보호 ▲소비자 보호 ▲개인정보보호 ▲연방정부의 AI활용 증진 ▲해외에서 미국의 리더십 강화 등이다.

다만 행정명령이라는 한계가 있어 미국 상원의회에서 올해 5월 AI 정책 로드맵을 발표하면서 AI 법안 마련을 위한 단계를 밟아 가고 있다. 오 대표는 "미 상원의 AI 로드맵은 AI가 노동에 미치는 영향, 선거와 민주주의에 미치는 영향에 어떻게 대응할지 이런 걸 고려해서 입법해야 한다는 입법 제안"이라고 설명했다.

오 대표는 "유럽, 미국 등은 AI의 위험성에 따라 차별적인 규제를 적용하는 위험 기반 접근에 공감대가 형성됐다"면서 "당연히 최소한의 책임성을 가지게 하는 법적 규율도 필요하고, 책임성에 기반한 자율 규제도 필요하다. 자율 규제를 명분으로 법적 규제를 회피해선 안 된다"고 말했다.

이어 "AI 육성과 규제는 배치되는 것이 아니다. AI의 안전성에 대한 신뢰 없이는 AI 산업 발전도 불가능하다"면서 "인권, 안전, 민주주의에 기반한 AI 거버넌스가 필요하다"고 강조했다.

유승익 한동대 교수는 22대 국회에서 발의된 AI기본법안에 대해 검토했다. 현재 발의된 AI기본법안은 21대 국회에서 발의됐던 법안을 그대로 답습하고 있어 산업 육성에 방점을 찍고, AI위험성을 규제할 장치가 부족하다고 지적했다.

현재 국회에는 여당 3건, 야당 3건 등 총 6건의 AI법이 발의돼 있다. 국회 개원 첫날인 지난 5월31일 안철수 국민의힘 의원이 'AI 산업 육성 및 신뢰 확보에 관한 법률안'을 발의한 것을 시작으로, 지난달 17일 국민의힘 당선인 108명 전원이 'AI 발전과 신뢰 기반 조성 등에 관한 법률안'을 공동 발의했다. 이달 4일에는 권칠승 더불어민주당 의원이 'AI 개발 및 이용 등에 관한 법률안'을 대표 발의했다.

유 교수는 발의된 AI기본법안들에 대해 "법안 제목을 봐도 대체적으로 비슷한 법 형태를 가지고 있으며, 산업 육성과 실뢰 확보라는 두가지 키워드가 입법 방향"이라며 "산업 관점에서 접근하고 있으므로 육성에 초점이 모아지고, 신뢰 기반 조성 등의 기조는 산업진흥의 보조적·종속적 지위에 머물고 있다"고 정리했다.

특히 21대 국회 과방위 논의 과정에서 문제점으로 지적됐던 '우선허용 사후규제' 원칙은 22대 국회에 발의된 법안에서 대부분 삭제됐지만, 김성원 국민의힘 의원이 발의한 법안에는 여전히 '우선허용 사후규제' 원칙을 그대로 두고 있다.

유 교수는 22대 국회에서 발의된 AI기본법안에 대해 공통적으로 "금지AI를 규율하는 규정을 찾아볼 수 없다"고 지적했다. 그는 "한국 사회에서 어떠한 AI 시스템이 용인될 수 없는지에 대한 숙의와 합의가 필요하다"면서 "EU는 잠재의식에 영향을 주거나 사회적 약자를 공격하는 등 AI를 금지하고 있는데 이를 참고해서 우리 법안에서도 규율을 해야 한다"고 말했다.

이어 "21대 AI기본법안의 사후적 규제가 비판을 받으면서 22대 국회에서는 명문적인 규정에서는 사라졌다"면서도 "그러나 금지AI에 대해 침묵하면서 암묵적인 사후 규제를 하자고 하는 게 아닌지 의심도 든다"고 강조했다.

유럽연합 AI법 상 AI시스템의 분류 및 규제 체계 ⓒ진보네트워크센터

고위험AI에 대한 규율에 대해서도 "대부분 법안에서는 규율을 하고 있지만 불안정하게 돼 있다"면서 "인권이나 국민 권리와 관련해서는 에너지, 먹는 물, 법안 등을 고위험AI 분야로 두면서, 그외에 수사기관, 재판, 출입국 등 공공영역에서는 규율하지 않는다"고 설명했다. 이어 "인권에 대해서는 채용, 대출심사 등에서 끝난다"면서 "이것만 가지고 권리에 중요한 영향을 미치는 AI에 대해 예측 가능한지 생각해 봐야 한다"고 꼬집었다.

유 교수는 "제재규정도 미비하다. 사실상 없는 것과 마찬가지"라며 "유럽은 금지AI에 대해 위반할 경우, 매출의 7%까지 과징금을 부과하고, 미국은 행정명령임에도 사용을 중지할 수 있는 규정을 두고 있다"고 비판했다.

유 교수는 AI기본법안에 대해 "글로벌 스텐다드에 한참 미달하다"면서 "AI 기술이 국내만 적용되는 게 아니라 역외에도 진출해야 하는데 상호 운영이 가능하기 위히서는 규정도 통용되야 한다"고 강조했다.

산업계 "규제보다는 육성" vs 규제당국 "고위험 AI 규제 필요"


이어진 토론에서는 산업계는 물론 정부부처 사이에서도 산업 진흥과 규제를 두고 입장이 갈렸다.

김영규 한국인터넷기업협회 정책1실장은 "사전에 모든 걸 규제하기보단 다양한 시도를 통해 기술을 발전시키면서 적절한 사후조치를 하는 게 옳은 방향"이라며 "EU나 영국, 일본은 규제샌드박스 제도를 운영 중인데, 우리나라도 규제 샌드박스를 운영해야 한다"고 제안했다.

과학기술정보통신부도 산업 진흥에 무게를 실었다. 남철기 과기정통부 인공지능기반정책과 과장은 "매출이나 기업수 측면에서 보면 한국을 AI 선도국으로 보기 어렵다"면서 "AI 발전과 신뢰 기반 조성을 균형 있게 고려한 제도적 기반 마련이 필요하다"고 말했다.

반면 규제기관에서는 AI에 대한 일정한 규제가 필요하다는 입장을 보였다. 이준헌 공정개래위원회 시장감시정책과 과장은 "AI분야에서도 거대 사업자가 나타나서 기술 독점이나 공급망 독점 등 시장 독식할 우려가 있다"면서 "여러 법안에서도 과잉규제는 지양해야 하지만 반독점 규제는 필요하다고 결론 내고 있는데 이런 부분에 공정위도 주목하고 있다"고 말했다.

이진석 국가인권위원회 인권정책과 사무관은 "AI의 부작용을 예방하기 위해서는 사전·사후 평가가 중요하다"면서 "AI 출시 전에 평가를 실시하고, 출시 이후에도 재평가하는 등 인권평가를 실시해야 한다"고 말했다.

또 "(22대 법안에서는) AI 산업 진흥 업무뿐만 아니라 고위험 영역 AI 확인 등 규제에 관한 업무도 과기정통부가 담당하도록 하고 있다"면서 "그러나 산업진흥과 규제라는 상호 모순적인 업무를 한 기관이 담당할 경우 규제의 실효성을 담보하기 어려워 감독·규제업무는 제3의 기관이 담당해야 한다"고 강조했다.

기사 원소스 보기

기사 리뷰 보기

관련 기사

기사 원소스 보기

기사 리뷰 보기

관련 기사

TOP