[사진=과기정통부] 대한민국의 인공지능(AI) 산업 발전과 안전한 활용을 위한 법적 기틀이 될 '인공지능 기본법'이 내일(22일)부터 전면 시행된다. 정부는 법 시행 초기 발생할 수 있는 혼란을 최소화하기 위해 "규제보다는 현장 적응을 우선"하는 기조를 강조하며, 기업의 부담을 줄이고 산업 진흥에 무게를 싣겠다는 방침이다. 과학기술정보통신부는 법 시행을 하루 앞두고, 위반 기업에 대해 "조사를 아예 하지 않겠다"고 선언하며 산업 활성화에 대한 강력한 의지를 피력했다. 이는 기업들이 AI 기술을 개발하고 활용하는 데 있어 과도한 규제로 인해 발목 잡히는 일이 없도록 하겠다는 정부의 정책 방향을 명확히 보여주는 부분이다. AI 기본법은 궁극적으로 인공지능 진흥을 위한 법안을 폭넓게 마련하여 창작물의 쉬운 보급과 AI 기술의 완벽화에 기여하려는 의도를 담고 있는 것이다. 이번 AI 기본법은 크게 투명성, 안전성, 그리고 인간의 기본권에 큰 영향을 미칠 수 있는 '고영향(고위험) AI'라는 세 가지 축을 중심으로 규제가 마련되었다. 특히 자율주행 4레벨 이상과 같은 분야는 고영향 AI로 분류되어 더욱 엄격한 관리 대상이 될 전망이다. 하지만 이러한 규제는 AI 산업
인공지능(AI)은 점점 더 많은 결정을 대신 내리고 있다. 자율주행차는 운전자의 개입 없이 도로를 달리고, 의료 AI는 질병 진단을 제안하며, 채용 알고리즘은 지원자의 적합성을 평가한다. 하지만 문제가 생겼을 때, 과연 누가 책임을 져야 할까? 개발자, 기업, 사용자 중 누구도 명확히 “내 책임이다”라고 말하기 어려운 것이 현실이다. AI의 결정은 인간이 설계한 알고리즘과 학습 데이터에 기반하지만, 그 과정은 종종 ‘블랙박스’처럼 불투명하다. 예를 들어 자율주행차 사고가 발생했을 때, 차량 제조사와 소프트웨어 개발자, 운전자 간의 책임 경계가 모호해진다. 의료 AI의 오진 역시 비슷한 문제를 안고 있다. AI가 추천한 진단을 의사가 그대로 따랐다면, 책임은 누구에게 있는가? 이런 이유로 전 세계적으로 ‘책임 있는 AI(Responsible AI)’의 필요성이 강조되고 있다. AI의 판단이 인간의 생명이나 권리에 영향을 미칠수록, 그 결정 과정의 투명성과 검증 가능성이 중요해진다. 기술은 인간을 돕기 위한 수단이지, 판단의 주체가 될 수 없다. 결국 AI가 내린 결정의 책임은 최종적으로 인간에게 있다. 기술이 발전할수록, 인간의 윤리적 통제와 책임의식이 더욱