[파이낸셜데일리 강철규] 정부가 인공지능(AI) 사업자에게 고영향AI와 생성형AI 사용 사실을 이용자에게 고지하도록 의무화하고, 기본권 침해 가능성 등을 평가하는 AI 영향평가 제도를 구체화했다. 과태료는 최소 1년간 부과하지 않는다.
과학기술정보통신부는 이같은 내용을 담은 'AI기본법 시행령' 제정안을 입법예고한다고 12일 밝혔다.
12월 22일까지 40일간 의견을 수렴해 내년 1월 22일 시행을 앞둔 AI기본법의 구체적 시행 방안을 확정할 예정이다.
과기정통부는 글로벌 규범 동향과 국내AI 산업의 성장을 고려해 규제보다는 진흥에 무게를 두면서, 필요최소한의 유연한 규제 체계를 도입하기 위해 관계부처 의견을 듣고 중복되거나 유사한 규제를 최소화하는데 집중했다고 설명했다.
식약처, 금융위, 원안위 등 관계부처 소관 법률상 의무를 이행하면 AI기본법상 고영향AI 사업자 책무를 이행한 것으로 간주하기로 했다.
AI 투명성 확보를 위해 사업자가 고영향AI나 생성형AI를 이용한 제품·서비스를 제공할 때 인공지능에 기반해 운용된다는 사실을 사전에 이용자에게 고지하도록 했다. 특히 실제와 구분하기 어려운 생성형AI 결과물에는 AI로 생성됐다는 사실을 명확히 고지해야 한다. 다만 이용자의 연령이나 신체적 조건 등을 고려하도록 했다.
안전성 확보 의무 대상 AI시스템은 미국 등 해외 규범을 참고해 학습 시 누적 연산량이 10의 26승 부동소수점 연산(FLOPs) 이상인 시스템으로 정했다.
고영향AI 여부는 사용영역, 기본권에 대한 위험의 영향과 중대성, 빈도 등을 고려해 판단한다. 과기정통부의 고영향AI 확인 절차는 기본 30일이 소요되며, 1회에 한해 30일 연장이 가능하다. 연장 시에는 사유와 기간을 문서로 통보한다.
AI 제품·서비스가 사람에게 미치는 영향을 사업자가 자율적으로 평가하는 AI 영향평가 제도도 구체화했다. 영향받는 기본권이 무엇인지, 해당 기본권이 어떻게 영향받는지, 영향 완화 방안 등을 포함하도록 했다.
국내 AI 산업 육성을 위해 법률에서 정하는 AI 연구개발(R&D), 학습용 데이터 구축, AI 도입·활용 등의 지원 대상과 기준, 내용을 규정했다. AI 집적단지 지정 기준과 절차도 마련했다.
AI 안전·신뢰 업무를 전문적·효율적으로 수행하기 위한 인공지능안전연구소, AI 관련 정책 개발과 국제규범 정립·확산을 지원하기 위한 인공지능정책센터, AI 집적단지 업무의 종합 지원을 위한 AI 집적단지 전담기구 등 지원기관의 지정·운영 방안도 시행령에 반영했다.
과기정통부는 제도의 현장 안착을 위해 최소 1년 이상 과태료 계도기간을 운영한다. 이 기간 동안 통합안내지원센터(가칭)를 운영해 기업의 법 적용 관련 문의에 안내할 계획이다. 또 이를 통해 AI기본법령 및 가이드라인에 대한 의견을 지속적으로 수렴, 제도를 계속 개선해 나갈 방침이다.
과기정통부는 AI기본법 시행 후 기업 지원 예산 확보를 통해 AI검·인증, 영향평가 수행 비용을 지원하고, 가이드라인도 개선해 나갈 예정이다.
배경훈 과기정통부 장관은 "AI기본법 시행령 제정안은 AI G3 강국 지위를 확고히 하기 위한 제도적 초석이 될 것"이라며 "입법예고 기간 동안 현장의 다양한 의견을 수렴해 AI 산업 발전과 안전·신뢰 기반 조성이라는 입법 취지를 잘 반영하겠다"고 밝혔다.
시행령 제정안은 과기정통부 홈페이지 '입법·행정예고' 게시판에서 확인할 수 있으며, 의견은 12월 22일까지 이메일이나 우편으로 제출 가능하다.








