article cover image

AI 기본법 시행, 우리에게 어떤 변화가 올까?

작성일 : 이소현 November 21, 2025

한국판 AI 정책의 출발선 — AI 기본법 핵심 내용 정리

안녕하세요!

AI는 여전히 뜨거운 논쟁의 중심에 서 있습니다.
기술은 빠르게 성장하고 있지만, 동시에 저작권·윤리·책임 문제도 함께 떠오르며 국가마다 각기 다른 대응책을 내놓고 있죠.

 

지난 글에서는 EU Data Act를 통해 “데이터 개방·이동성 중심”으로 변화하는 글로벌 데이터 정책 흐름을 살펴보았습니다.
오늘은 그 연장선에서, 내년 1월 시행을 앞둔 한국 AI 기본법이 무엇을 바꾸는지, 그리고 한국의 AI 정책이 어디로 향하고 있는지 이야기해보는 후속편입니다.

 

 


1. 한국판 AI 정책의 출발선 — AI 기본법

 

한국의 AI 소관법인 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)’은 2026년 1월 22일부터 시행됩니다. 관련 시행령은 10월에 공개가 되었습니다.
이 법은 여러 국회의원이 제안한 AI 관련 법안을 모아 재구성한 것으로, 핵심은 AI 산업 진흥 + 이용자 보호입니다.

 

핵심 내용만 정리해보자면: 

 

  • “진흥 우선, 규제 최소화” 원칙
    — 기술 속도에 맞춰 불필요한 규제는 최소화하되, 위험 요소는 하위법령(시행령)에서 조정
  • 3년마다 국가 AI 기본계획 수립
    — AI 인력 양성, R&D 기업 육성, 산업 집적화 전략 포함
  • 생성형 AI 및 고영향 AI에 대한 고지·안전성 조치 의무
    — AI 기반 서비스는 사용자에게 ‘AI가 작동 중임’을 알리고 안전성 확보 필요
  • 지원 중심 제도 설계
    — AI R&D·데이터 구축 프로젝트, 정책센터·안전연구소 등 지원체계 마련

 

정부가 강조하는 방향성은 분명합니다.
“책임 있는 방식으로 AI 산업을 키우자.”


 

 

2. 시행령(10월 공개)에서 확인된 주요 변화

10월에 공개된 시행령 초안은 법이 말하는 방향성을 구체화한 문서입니다.
아래 표는 중요한 변화를 정리해보았습니다.

변화 포인트의미
지원 사업 기준 명확화어떤 기업·기관이 어떤 AI 프로젝트에 지원받을 수 있는지 기준을 세분화
지정 기관 운영 체계 마련‘AI 정책센터’, ‘AI 안전연구소’ 등 공적 기관 운영 근거 마련
투명성·안전성 의무화생성형 결과물 ‘AI 생성’ 표시, AI 기반 서비스 고지 의무
고영향 AI 기준 제시누적 연산량 10²⁶ FLOPs 등 영향 평가 기준 구체화
계도기간 운영초기 기업 부담을 줄이기 위한 조정 기간 제공

**FLOPs란?

AI 모델 하나를 개발하고 학습시키는 데 투입된 총 부동소수점 연산 횟수(1 FLOP은 부동소수점 연산 1회)를 의미

  • 목적: 현재 기술 수준에서 '초대형 AI'를 식별하는 기술적 임계치로 사용되며, 잠재적 위험도가 높을 수 있는 모델을 규제 대상에 포함하기 위함입니다.

  • 국제 비교: 유럽연합(EU) AI Act는 10²⁵ FLOPs를 시스템적 위험 판단의 추정치로 설정한 반면, 한국과 미국은 10²⁶ FLOPs를 기준으로 합니다.

     

이런 변화는 단순 규제 확대가 아니라
“AI 산업을 성장시키며 동시에 신뢰 기반을 만들기 위한 최소 장치”라는 흐름으로 해석됩니다. 사실 지금도 블로그에서 AI로 만든 이미지를 표시하는 장치도 있고, 시행하고 있는 곳도 있지만, 이제는 그것이 의무화 되는 것입니다.


 

 

3. 지금의 AI 법·정책은 충분한가요?

이러한 많은 법안이 규정될 예정이지만, 과연 기술적으로 충분할까요?

 

현재 국회에는 AI 기본법 외에도 27개의 AI 관련 법안이 계류 중입니다.
기본법 개정안만 17건이며, 그 내용은 매우 다양합니다:

  • AI 데이터센터 전력 공급 특례
  • 초·중·고 AI 교육 의무화
  • 국가인공지능위원회 → 국가인공지능전략위원회 확대
  • 정부 입찰·조달 시 AI 제품·서비스 우선 고려 규정 등

 

즉, AI 정책은 여전히 “정착 중”이며 한국 역시 시행령을 포함한 하위 법령을 계속 다듬고 있는 상태입니다. 이건 국내만이 그런것이 아니고, 해외 역시 같은 상황을 겪고 있습니다.


 

 

4. 법이 기술 속도를 따라가기 어려운 이유 

전문가에 따르며, EU와 싱가포르는 AI 관련법을 빠르게 만들었지만, 막상 적용하려했을 시에는 기술이 너무 발전되어 있어, 적용 되기 힘들다고 말했습니다. 국내 역시 고려해야 될 문제인데요.

 

 

  • 대규모 모델·멀티모달·에이전틱 AI 등 기술은 6개월 단위로 바뀌지만
    법은 최소 1~2년의 논의·제정 과정을 거침
  • 생성형 AI 신기술은 예측이 어려워 규제로 선제 대응하기 어려움
  • AI의 영향 범위가 너무 넓어 하나의 법으로 모든 문제를 해결하는 것이 불가능

     

그래서 전문가들은 한국도 아래와 같은 접근이 필요하다고 말합니다.

“AI 정책은 법으로 과도하게 제한하지 말고,
기본법은 최소한으로 두고 정부 시행령과 가이드라인으로 빠르게 조정해야 한다.”

이 말은 결국 현실적인 방향성을 제시합니다.
➡ AI 법률은 “틀”만 잡고,
➡ 세부 정책은 기술 변화에 맞춰 “유연하게 움직여야 한다”는 것입니다.


 

 

5. AI 기본법은 완결판이 아닌 ‘시작점’이다

AI 기본법은 AI 시대에 살아가기 위해 시작한 우리에게 시작점입니다.
 

앞으로는:

  • 법률은 큰 방향만 제시하고
  • 세부 내용은 시행령과 정책 가이드라인으로 빠르게 업데이트
  • 기업과 사용자도 AI의 투명성·안전성 기준에 익숙해져야 하고
  • 정부는 진흥과 책임 사이 균형을 더 정교하게 맞춰갈 필요가 있습니다.

 

한국 AI 정책은 지금 전환점에 서 있습니다. AI 기본법은 그 첫 장을 연 것이고,
앞으로 수많은 보완·개정·업데이트가 계속될 것입니다. AI 시대에 살아가는 지금, 변화의 흐름을 읽으며, 살아가는게 중요해보입니다.

 

오늘은 평소와 다른 관점으로 AI시대에 살아가며, 지켜야 할 AI 기본법과 그 의미에 대해 알아보았습니다. 다음에도 더 유용한 글로 찾아뵙겠습니다.!

감사합니다!

 

 

 

참고자료

https://news.zum.com/articles/102136084

https://itskorea.kr/boardDetail.do?idx=19872&type=8&

https://www.korea.kr/news/policyNewsView.do?newsId=148954629&

https://m.boannews.com/html/detail.html?idx=140301&tab_type=1&

https://www.segye.com/newsView/20251111515778

 

presentation