인공지능(AI)을 둘러싼 규제 논쟁이 거센 가운데, 정부가 '규제가 아닌 기본 틀'을 표방한 AI기본법이 22일부터 공식 시행된다.
산업 통제보다 신뢰와 안전을 앞세운 국가 AI 전략의 출발점이라는 게 정부 설명이지만, 실제 운용 방식에 따라 규제로 작동할지, 국가 AI 전략의 '안전판'이 될지는 갈릴 수 있다는 평가가 나온다.
"AI 규제법 아닌 기본법…국가 AI 전략의 뼈대"
정부는 이날부터 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI기본법)'을 본격 시행하고, 국가 차원의 AI 정책을 포괄하는 최상위 기본법 체계를 공식 가동했다.
과학기술정보통신부는 AI기본법을 "AI 규제를 강화하기 위한 법이 아니라, 신뢰와 안전을 기반으로 AI 산업과 기술 발전을 뒷받침하기 위한 기본법"이라고 규정했다. 법을 통해 AI 개발·활용 전반을 직접 통제하기보다는, 최소한의 공통 원칙과 거버넌스를 마련하는 데 방점을 찍었다는 설명이다.
AI기본법은 개별 기술이나 서비스에 대한 직접 규제를 담기보다는, 국가 차원의 AI 정책 추진 체계를 정립하는 데 초점을 맞췄다. 법 시행과 함께 이재명 대통령을 위원장으로 하는 국가AI전략위원회는 기존 자문기구에서 법정위원회로 격상돼 AI 정책 전반을 조정·심의하는 컨트롤타워 역할을 맡게 됐다.
과기부는 다만 구체적인 규제 기준이나 처벌 조항을 전면에 내세우기보다는, 노동·안전·플랫폼·콘텐츠 등 세부 영역은 관계 부처와의 협의를 통해 단계적으로 정비해 나가겠다는 입장이다.
과기부 관계자는 "AI기본법은 AI 시대에 필요한 최소한의 공통 기준과 방향을 제시하는 법"이라며 "세부 규제는 관계 부처와 협력해 조율해 나가는 구조"라고 설명했다.
기본법 최소 1년 이상 유예…"조사·제재보다 정착"
과학기술정보통신부 제공업계의 규제 우려와 관련해 정부는 법 시행 이후 최소 1년 이상의 규제 유예 기간을 두고 제도 안착에 주력하겠다는 방침을 재확인했다.
과기부는 지난 20일 서울 광화문에서 열린 AI기본법 설명회에서 "AI기본법은 산업 진흥을 전제로 한 최소 규제 원칙에 기반한 기본법"이라며 "법 시행 이후 일정 기간 동안은 조사나 제재보다 컨설팅과 계도에 초점을 맞출 것"이라고 밝혔다.
이 기간 동안 과기부는 'AI 기본법 지원 데스크'를 중심으로 기업들의 제도 이해와 준수를 지원한다는 계획이다. 다만 AI 기술로 인해 중대한 인명 피해나 사회적 파장이 발생할 경우에는 관계 부처가 재량권을 갖고 대응할 수 있도록 여지는 남겼다.
과기부는 특히 AI기본법이 과태료나 처벌이 목적이 아니라, 사고를 예방하고 책임 구조를 명확히 하는 데 핵심이 있다고 강조했다.
정부는 업계가 우려해 온 '고영향 AI'의 적용 범위에 대해서도 상당히 제한적으로 해석하고 있다. AI의 판단 결과가 그대로 현실에 영향을 미치고, 이를 중간에서 사람이 통제하지 않는 경우만을 규제 대상으로 삼겠다는 취지다.
고영향 AI는 사람의 기본권에 중대한 영향을 미치거나 위험한 업무에 사용되면서도, 사람의 개입이 전혀 없는 경우를 의미한다. 현재 기준으로는 완전 자율주행 단계인 레벨4 이상 차량 정도가 대표적인 사례로 거론되며, 당장 광범위한 산업 영역이 규제 대상에 포함되지는 않을 것이라는 게 정부 설명이다.
초거대 AI 사업자에게 부과되는 안전성 확보 의무 역시 엄격한 요건을 충족하는 경우에만 적용된다. 과기부는 학습 연산량이 10의 26제곱 플롭스(FLOPS) 이상인 모델을 기준으로 삼되, AI 설계 목적과 위험도 등을 종합적으로 고려해 판단한다고 밝혔다. 이는 초당 1천경(10²⁰) 번 이상의 연산을 장기간 수행해야 도달할 수 있는 수준으로, 현재 국내외에서 이 기준에 즉각 해당하는 모델은 사실상 없는 상황이다.
"EU AI Act와는 다른 길…규제보다 전략"
과학기술정보통신부 제공AI기본법 시행과 함께 과기부는 '인공지능 투명성 확보 가이드라인'도 공개했다. 가이드라인은 AI 알고리즘이나 설계 구조를 일률적으로 공개하도록 강제하기보다는, 이용자와 사회에 미치는 영향을 중심으로 한 설명 가능성과 고지 의무에 초점을 맞췄다.
가이드라인에는 △AI 활용 사실 고지 △결과에 대한 설명 제공 △책임 주체 명확화 등의 원칙이 담겼다. 특히 AI 생성물 표시 의무는 개인이 아닌 최종적으로 서비스를 제공하는 사업자에게 부과되며, 국내 기업뿐 아니라 구글·오픈AI 등 해외 빅테크 기업도 적용 대상에 포함된다.
딥페이크처럼 육안으로 진위를 식별하기 어려운 생성물에는 엄격한 표시 기준이 적용되지만, 일반 텍스트나 AI 생성물의 경우에는 메타데이터를 활용하는 등 유연한 방식이 허용된다.
AI기본법의 성격은 유럽연합(EU)의 'AI Act(인공지능법)'와 자주 비교된다. EU AI Act가 위험 수준에 따라 AI를 분류하고, 고위험 AI에 대해 사전 인증과 강한 규제 의무를 부과하는 전형적인 규제법인 반면, 한국의 AI기본법은 산업 진흥과 신뢰 확보를 병행하는 기본법 성격이 강하다는 점에서 결이 다르다는 것이 과기부 설명이다.
과기부는 "EU AI Act가 시장 진입 단계에서 규제를 통해 위험을 차단하는 구조라면, AI기본법은 국가 전략 차원에서 공통 원칙과 거버넌스를 먼저 세우는 접근"이라며 "우리 법은 개별 규제보다 방향과 체계를 제시하는 데 초점을 맞췄다"고 밝혔다.
업계 우려에 "완결된 제도 아냐"…향후 운용 관건

그럼에도 업계에서는 AI 기본법이 취지와 달리 현장에서는 부담으로 작용할 수 있다는 우려를 제기한다. 고영향 AI 기준과 AI 생성물 표시 의무 등 핵심 조항의 적용 범위가 아직 명확하지 않은 상황에서 법이 먼저 시행될 경우, 기업들이 규제 리스크를 의식해 신기술 적용과 사업 확장을 보수적으로 가져갈 수밖에 없다는 것이다.
특히 의료·교통·콘텐츠 등 AI 혁신 속도가 빠른 분야가 규제 대상에 포함되면서, 국내 기업과 스타트업의 실험과 상용화 속도가 늦어질 경우 글로벌 빅테크와의 기술 격차가 오히려 확대될 수 있다는 지적도 나온다.
해외 사업자에 대해서도 동일한 규제가 적용된다고는 하지만, 집행 실효성이 불투명한 만큼 규제가 국내 기업에 먼저 더 강하게 작동하는 역차별로 이어질 가능성을 우려하는 목소리도 적지 않다.
이성엽 고려대 기술경영전문대학원 교수는 AI기본법의 규제 작동 가능성에 대해 우려를 나타냈다. 이 교수는 "과기부는 AI 기본법이 최소한의 안전판이라고 설명하지만, 미국이나 중국처럼 개별 영역별로 대응하는 방식이 아니라 포괄적 규제법을 먼저 만드는 것이 과연 적절한지는 고민이 필요하다"며 "AI 3강을 목표로 하면서 미국과 중국이 택하지 않는 방식을 우리가 먼저 선택한 이유를 따져봐야 한다"고 지적했다.
이어 "규제의 핵심은 과태료 액수가 아니라, 조사 자체가 기업에 '불법 사업자'라는 낙인을 찍을 수 있다는 점"이라며 "조사와 집행이 최소화되지 않으면 기업들은 기술 개발보다 규제 대응에 먼저 움츠러들 수밖에 없다"고 말했다.
또 "AI 기술 발전 속도를 고려하면, 기본법이 산업 촉진의 발판이 되려면 운영 과정에서 기업들이 안심하고 실험할 수 있는 환경을 만들어주는 것이 무엇보다 중요하다"며 "법의 취지가 규제가 아니라면, 집행 단계에서도 그 원칙이 일관되게 유지돼야 한다"고 강조했다.
과기부는 AI기본법이 처음부터 완결된 제도라고 보지 않는다는 점을 분명히 했다. 과기부 실태조사에 따르면, 국내 AI 기업은 약 2500곳으로, 이 가운데 실제 AI기본법 적용 범위에 들어올 수 있는 사업자는 약 1800곳으로 추산된다.
김경만 과기정통부 AI정책실장은 "국회도 '개문발차'라는 취지로 접근했고, AI기본법이 완벽하다고 생각하지 않는다"며 "법이 안정적으로 정착될 수 있도록 개정 작업을 병행하고, 산업계와 시민단체가 함께 논의하는 구조를 만들어 가겠다"고 밝혔다.
AI기본법은 규제 강화와 산업 진흥이라는 두 가치 사이에서 정부가 선택한 제도적 해법이다. 법 자체보다 앞으로 어떤 원칙으로 해석되고, 어떻게 운용되는지가 국가 AI 전략의 방향과 산업 현장의 체감도를 가를 핵심 변수가 될 전망이다.