EU AIA 벤치마킹, 고영향 AI 개념 도입 … 명확한 등급 분류는 부족
개인정보 보호법과 조화 고려했지만 규제위반시 처벌 규정은 모호

[뉴스엔뷰] AI 산업의 선두주자인 미국, 유럽과 최근 딥시크를 선보이며 신생 강국으로 떠오르고 있는 중국 등 AI 패권을 쥐기 위한 틈바구니 속에서 우리나라도 AI에 대한 기본정책과 지원방향 및 규제의 큰 틀을 제시할 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법안’(이하 AI 기본법)이 국회를 통과하였고 내년 1월 22일 시행될 예정이다. 

지난해 12월 26일 서울 여의도 국회에서 열린 제420회 국회(임시회) 제1차 본회의에서 인공지능의 건전한 발전과 신뢰 기반 조성을 위한 기본법을 제정하는 인공지능 발전과 신뢰 기반 조성 등에 관한 기본법안(대안)이 재석 264인, 찬성 260인, 반대 1인, 기권 3인으로 가결되었다.    사진/뉴시스
지난해 12월 26일 서울 여의도 국회에서 열린 제420회 국회(임시회) 제1차 본회의에서 인공지능의 건전한 발전과 신뢰 기반 조성을 위한 기본법을 제정하는 인공지능 발전과 신뢰 기반 조성 등에 관한 기본법안(대안)이 재석 264인, 찬성 260인, 반대 1인, 기권 3인으로 가결되었다.    사진/뉴시스

AI기본법은 우리나라 최초의 AI 기본법으로 19개 법안이 병합 심사된 제정법안이며 AI 산업을 체계적으로 육성하기 위한 기술개발 및 이용 등에 관한 지원 근거를 마련했다. 또한 '국가인공지능위원회'를 설치하여 인공지능 사회 구현과 산업 진흥과 관련된 사항을 심의 의결할 수 있도록 규정했으며, 3년마다 과학기술정보통신부 장관이 인공지능 기본계획을 수립하고 시행하도록 했다. 

이와함께 딥페이크를 비롯한 AI 의 부작용을 막기 위한 규제도 포함됐다. 인공지능사업자가 고영향 인공지능 또는 이를 이용한 제품 서비스를 제공하는 경우 신뢰성 확보를 의무화하도록 했다. 인간의 생명과 신체·정신적 건강 등에 해가 되지 않는 등의 윤리원칙도 명시했다.

AI기본법은 OECD AI 원칙, 미국의 AI 관련 행정명령 및 법안, 일본의 AI 정책 등을 참고했지만 이중 EU AIA(Artificial Intelligence Act)를 가장 많이 벤치마팅한 것으로 볼 수 있다. 특히 EU AIA는 세계 최초의 포괄적인 AI 규제법으로 AI 위험 수준을 금지·고위험·제한적·허용 등 4단계로 나누어 차등 규제를 적용했는데, AI기본법도 고영향 AI 개념을 도입하여 사회적 영향이 큰 AI에 대한 규제 필요성을 반영했다. 다만 AI기본법은 산업 육성을 고려하여 규제 강도를 낮추는 방향으로 설계하여 차별점을 두었다. 

유럽연합의 EU AIA는 작년 8월에 발효되었고 1년 후에 범용 AI 모델, 2년 후에 고위험 AI 시스템에 대한 규제가 시행될 예정이지만 시행 시기를 감안하면 고영향 인공지능에 대한 시행은 AI 기본법이 앞선다. 

AI기본법과 EU AIA,  무엇이 다를까? 

AI기본법과 EU AIA의 가장 큰 차이점으로는 크게 4가지로 나눌 수 있다. 첫째, 규제 강도인데, EU AIA가 AI의 위험성을 평가해 금지·고위험·제한적·허용 4단계로 나누어 얼굴 인식 AI의 실시간 사용은 금지하는 등 강력하게 규제하는 반면에 AI기본법은 고위험 AI 개념을 도입했지만, 등급 구분을 다소 모호하게 적용하고 규제 강도를 낮췄다. 

둘째, 생성형 AI에 대한 규제인데, EU AIA는 생성형 AI(ChatGPT, DALL·E 등)에 대해 출처 공개, 훈련 데이터 정보 제공, 허위 생성물 방지 조치 등을 의무화한 반면, AI기본법에는 생성형 AI에 대한 별도 조항이 거의 없다. 

셋째, 기업 부담면에서 EU AIA는 AI 개발·운영 기업에 엄격한 법적 책임과 벌금을 부과하여 기업 부담이 크다고 볼 수 있는데, AI기본법은 기업 지원 및 육성 중심이라 규제 부담이 상대적으로 적다. 

넷째, 국제적 영향력측면에서는 EU AIA는 역외적용 원칙을 적용했기 때문에 EU 이외 국가의 AI 기업도 EU 시장에서 AI를 사용하려면 법을 따라야 하는 것에 비해 AI기본법은 국내 AI 산업과 정부 지원 정책 중심으로 설계되어 국제적 영향력이 낮다고 평가된다. 

최근 AI 기본법 통과 전후로 국회의원을 중심으로 한 수많은 정책 토론회가 열리고 있는데, 지난 19일 오후 2시 의원회관에서 ‘딥시크 쇼크: 2025 한국 골든타임 확보 위한 정책제언’이란 주제를 가지고 ‘AX발전 포럼 출범식 및 정책토론회’가 개최되었다. 

이날 발제자로 나온 서울과학기술대학교 IT정책전문대학원 김현경 교수는 “AI기본법은 EU AIA를 벤치마킹한 위험기반 접근 방식을 채택하고 있는 것으로 보이지만 EU AIA는 위험기반 접근 방식에 있어서 몇 가지 한계가 있다”고 지적했다. 

첫째, 기본권 보호와 위험기반 접근방식의 부조화인데, 시민들의 기본권까지 보호하고자 하는데 이는 위험기반 접근방식의 범위라고 보기 어렵다는 의견이다. 위험기반 규제는 흔히 공정성과 효율성 사이의 사회적 균형을 요구하기 때문이라는 것이다. 

둘째, 위험-이익 분석 누락의 문제인데, 이러한 분석이 부재한다면 위험과 이익 사이에서의 적절한 균형을 결하는 상황이 발생할 수 있다는 점이다. 김 교수는 ‘의료기기법’ 제2조제1항을 예로 들면서 이 조항이 AI기본법에 적용되면 고영향 인공지능으로 규정되어 제34조의 책무를 이행해야 하고, 인공지능 개발사업자와 인공지능 이용사업자 모두에게 해당됨으로 인해 규제 부담이 발생하게 되고 이용의 범위를 제약하는 개발을 야기하게 될 수 있다고 경고한다.  

이밖에 AI기본법의 한계점으로는 △생성형 AI에 대한 규제 부족 △개인정보 보호 및 데이터 활용 간 충돌 △국제적 정합성 부족 등이 거론되고 있다.  

AI기본법, 무엇이 보완되어야 하나?

조국혁신당 이해민 의원은 지난 19일 여의도 국회의원회관에서 열린 'AX 발전 포럼' 출범식 및 정책토론회'에서 "AI기본법은 EU에 이어 세계에서 두 번째로 AI와 관련한 포괄적 법률을 마련한 것으로 국내 AI 산업의 불확실성을 해소하고 AI 혁신과 발전을 이끌기 위한 발판을 마련했다"고 말했다.    사진/ 진선미 기자
조국혁신당 이해민 의원은 지난 19일 여의도 국회의원회관에서 열린 'AX 발전 포럼' 출범식 및 정책토론회'에서 "AI기본법은 EU에 이어 세계에서 두 번째로 AI와 관련한 포괄적 법률을 마련한 것으로 국내 AI 산업의 불확실성을 해소하고 AI 혁신과 발전을 이끌기 위한 발판을 마련했다"고 말했다.    사진/ 진선미 기자

AI기본법이 대한민국의 미래 AI 산업의 법제적 기틀을 마련하고 기술개발 방향타를 제시하는만큼, 헌법이 보장하는 기본법과의 충돌을 피하면서 능동적이고 역동적인 기술 개발의 생태계를 조성해 주는 것이 무엇보다 중요하다. 

이러한 측면에서 봤을 때 AI기본법에서 강화해야 할 부분은 생성형 AI 관련 윤리 및 규제 강화이다. 생성형 AI가 허위 정보나 저작권 침해 문제를 일으킬 경우의 책임 소재를 명확히 해야하고 생성형 AI의 투명성 확보를 위해 AI가 생성한 콘텐츠임을 표시하는 방안 도입 검토해야 한다. 그리고 개인정보 보호와 데이터 활용의 균형 유지를 견지해야 하는데, 데이터 활용을 촉진하기 위해 가명정보 및 익명정보의 법적 활용 범위를 확대하는 방안을 검토하고 AI 학습을 위한 데이터 제공 시 개인정보 보호 기준을 명확히 설정해야 한다. 

기업들의 기술 개발을 고양시키기 위해서는 국제 기준과의 정합성 강화, 기업 규모별 차등 규제 적용해야 한다. 또한 대기업과 스타트업의 AI 기술 개발 역량이 다르므로, 기업 규모에 따른 맞춤형 규제 도입이 필요하며, 스타트업 및 중소기업이 부담을 줄일 수 있도록 가이드라인 및 지원책 도 구체적으로 마련되어야 한다. 더불어 고영향 AI에 대한 명확한 기준을 정립하여 고영향 AI의 정의를 구체화하고, 주기적으로 재평가할 수 있는 프로세스 구축하며 AI 위험도를 평가하는 공정하고 객관적인 기준이 마련되는 것이 필수적이다. 


 

저작권자 © 뉴스엔뷰 무단전재 및 재배포 금지