인공지능(AI) 기본법에 명시된 '고영향 AI' 규제 정도가 유럽연합(EU) AI 액트에 규정된 '고위험 AI'보다 유연하게 설정될 것으로 확인됐다. 안전성 확보 의무 대상은 오픈AI '챗GPT'도 당장 적용 받지 않을 수준으로 정의될 예정이다.
14일 AI학계·업계에 따르면 과학기술정보통신부는 이러한 기본 방침을 토대로 AI기본법의 직접적인 적용을 받거나 영향권에 있는 업계·학계·소비자단체 등을 대상으로 AI기본법 하위법령 정비단이 마련한 시행령 등 초안에 대한 의견수렴을 본격화한다.
ⓒ게티이미지뱅크
과기정통부는 지난 11일 SK텔레콤·KT·네이버·카카오·LG AI연구원 등 대기업 대상 한 차례 의견을 수렴한 데 이어 이번주 중소기업과 스타트업, 학계, 시민단체 등을 차례로 만날 예정이다.
각 그룹별 최소 2회 이상 의견을 청취, 하위법령 초안에 업계와 학계 의견을 반영할 방침이다. 첫 회의에서는 AI기본법상 투명성·안전성 조항과 관련된 의견을 청취한 것으로 알려졌다.
과기정통부는 현재 법조계, 법학·소프트웨어(SW)학계와 한국SW산업협회 등으로 구성된 정비단과 더불어 한국지능정보사회진흥원(NIA), 한국정보통신기술협회(TTA), 정보통신정책연구원(KISDI), AI안전연구소 등 4개 기관과 AI기본법 하위법령과 가이드라인 등에 대한 막바지 작업을 진행하고 있다.
그동안 업계에서 강력한 규제가 될 것이라고 우려한 고영향 AI 관련, 정부는 제품 안전 구성요소 확인 등을 명시한 EU AI 액트의 고위험 AI 대비 최소 규제로 설정하겠다는 방침을 확정했다. 사람 생명·신체 안전이나 기본권을 제한하지 않도록 규제 대상을 최소화해 책무를 부과하겠다는 것이다.
특히 고영향 AI 규제 대상을 일상생활에 영향을 미치는 빈도와 정도, 일상적이지 않은 활용과 영향의 정도, 개인과 사회에 회복 불가능한 영향 여부, 기본권·생명·신체·권리·이익에 미치는 영향 등 4개 기준을 중심으로 구분하는 안이 유력하다.
과기정통부는 의료·제조·채용 등 고영향 AI에 해당될 수 있는 산업 대상 AI기본법 적용이 정부 정책·제도와 관련이 있다고 판단, 보건복지부·산업통상자원부·고용노동부 등 관계부처 의견 청취도 병행할 계획이다.
또 법상 안전성 확보 의무 대상은 AI 학습에 사용된 누적 연산량을 10의 26승 플롭스(flops) 이상으로 한정, 세계 AI 추론 모델을 선도하는 오픈AI 등 빅테크 기업도 해당되지 않는 수준으로 규제 대상을 최소화한다. AI 서비스 검·인증은 민간 차원에서 진행하고 과기정통부가 감독하는 방향을 검토하고 있다.
정부는 5월 초까지 업계·학계 의견을 수렴해 작성한 초안을 국가AI위원회에 보고한 뒤 5~6월 중 입법예고를 목표로 한다. 하위법령 제정 절차의 신속성을 담보하기 위해 법제처도 시행령 준비단계부터 참여해왔다.
과기정통부 관계자는 “내년 1월 AI기본법 시행을 앞두고 산업계에서 우려하는 불확실성을 빠르게 해소하기 위해 하위법령 정비작업을 서둘러 진행하고 있다”며 “규제보다 진흥 중심이라는 확실한 원칙 아래 각계 의견을 수렴, 시행령 입법예고안을 확정할 것”이라고 말했다.
박종진 기자 truth@etnews.com
Copyright © 전자신문. 무단전재 및 재배포 금지.