2026년 본격 시행 예정인 AI 기본법에 대한 기업의 대응 방안과 주요 쟁점을 다룬 세미나에서 고영향 AI 정의, 인간의 개입, 책임 구분, 부처별 규제 통합, 스타트업 지원 등 핵심 이슈들이 논의되었습니다.
AI 기본법, 고영향 AI의 범위는 어디까지인가?
한국의 AI 기본법은 국민의 생명, 안전, 기본권에 중대한 영향을 미칠 수 있는 '고영향 인공지능'을 규제 대상으로 삼고 있습니다. 하지만 이 정의가 지나치게 포괄적일 경우, 범용 AI 모델까지 규제 대상에 포함될 수 있다는 우려가 있습니다. 실제 현장에서는 이러한 불확실성을 해소하고 기업들이 실질적으로 대응할 수 있도록, 고영향 AI에 대한 명확하고 구체적인 기준 마련이 시급하다는 목소리가 높습니다. 예를 들어, 의료 진단 AI나 자율주행 시스템은 명백히 고영향 AI로 분류될 수 있지만, 단순 추천 알고리즘의 경우 그 기준을 어디까지 적용할지에 대한 논의가 필요합니다.
AI 시스템, 인간의 개입은 어떻게 보장해야 하는가?
관련 글
AI 기술이 아무리 발전하더라도 최종 의사결정 과정에서는 인간의 개입이 필수적이라는 점에 대해서는 참석자들 간의 폭넓은 공감대가 형성되었습니다. 하지만 AI 시스템을 설계하고 운영하는 단계에서 이러한 '인간의 개입(Human Oversight)'을 어떻게 실질적으로 구현할 것인지에 대한 정부의 구체적인 가이드라인은 아직 부족한 상황입니다. 전문가들은 AI 시스템의 개발 및 운영 과정에서 현실적인 맥락을 반영하고, 이행 가능성에 초점을 맞춘 접근 방식이 필요하다고 강조했습니다. 예를 들어, AI가 제안한 의료 진단 결과에 대해 최종 판단은 의사가 내리도록 시스템을 설계하거나, 금융 상품 추천 시에도 최종 승인은 담당 직원이 하도록 하는 절차를 마련하는 것이 중요합니다.
AI 개발자와 사용자, 책임 범위는 어떻게 나뉘어야 하는가?
AI를 개발한 주체와 실제 AI 서비스를 이용하는 주체 간의 책임 범위가 명확하게 구분되지 않을 경우, 예상치 못한 법적 혼선이 발생할 수 있다는 우려가 제기되었습니다. 현재 한국의 법제는 이 부분에 대한 규정이 미비하다는 평가가 있으며, AI 기술의 발전 속도에 맞춰 개발자와 사용자 각각의 역할에 따른 책임 체계를 명확히 정립할 필요성이 강조되었습니다. 예를 들어, AI 챗봇이 잘못된 정보를 제공했을 때, AI 개발사에게 책임이 있는지, 아니면 해당 챗봇 서비스를 제공하는 사업자에게 책임이 있는지에 대한 명확한 기준이 필요합니다.
분산된 AI 규제, 통합 조정 체계 구축 시급
AI와 관련된 규제가 여러 부처에 나뉘어 있어, 기업 입장에서는 일관된 기준을 파악하고 준수하는 데 어려움을 겪고 있다는 지적이 나왔습니다. 이러한 규제 분산은 중복 규제나 해석상의 혼선을 야기하며, 기업 활동에 비효율성을 초래할 수 있습니다. 따라서 정부 차원에서 AI 관련 규제를 총괄하고 조율할 수 있는 통합 컨트롤 타워(Control Tower)의 필요성에 대한 공감대가 형성되었습니다. 이를 통해 기업들은 보다 명확하고 일관된 규제 환경 속에서 AI 기술 개발 및 서비스 운영에 집중할 수 있을 것입니다.
스타트업의 현실적 어려움과 지원 방안
자금과 인력이 제한적인 초기 스타트업의 경우, 복잡하고 새로운 AI 규제 환경에 신속하게 대응하기 어려운 현실적인 제약이 존재합니다. 특히 개인정보 보호나 데이터 익명화 기준과 같이 해석이 모호한 규정들은 현장에서 큰 혼선을 유발하고 있습니다. 단순한 가이드라인 제시를 넘어, 스타트업들이 규제를 준수하면서도 기술 혁신을 이어갈 수 있도록 실질적인 기술적, 재정적 지원이 병행되어야 한다는 현장의 목소리가 다수 제시되었습니다.
공유하기
💬자주 묻는 질문
AI 기본법의 고영향 AI 규제 대상은 무엇인가요?
AI 시스템에서 인간의 개입은 어떻게 보장해야 하나요?
AI 개발자와 사용자 간 책임은 어떻게 구분되나요?
AI 규제 관련 부처 간 통합 조정 체계가 필요한 이유는 무엇인가요?
원문 작성자










