가까운 미래에는 지금까지 볼 수 없었던 새로운 인공지능 기술이 상용화될 것이다. 이러한 예측이 현실화되기 전에 인공지능을 규율할 수 있는 새로운 법체계의 마련이 시급한 상황이다. 인공지능은 우리의 삶을 편리하게 하지만 인간의 권리를 침해할 위험성이 있는 양날의 검이기 때문에 인공지능으로부터 발생하는 위험을 최소화할 수 있는 방식으로 이러한 기술의 잠재력을 실현하는 것이 중요하다. 지금까지 우리나라뿐만 아니라 많은 국가들은 인공지능으로 인한 위험성을 방지하기 위하여 강제성이 없는 규제방식을 선택하였다. 그러나 이러한 방식을 택할 경우에 정부의 규제는 현실적으로 한계가 있고, 실제로 발생하는 위험을 사전에 차단하기가 쉽지 않고, 실천적인 해결방안이 나오기 어려울 것이다. 따라서 신뢰할 수 있고, 안전한 인공지능의 발전을 위하여 인공지능에 대한 통제와 감독을 자율에만 맡겨둘 것이 아니라 인공지능의 혁신을 저해하지 않는 한도 내에서 점진적으로 강제적인 규범의 형태로 규제하는 방식으로 나아가야 할 필요가 있다. 지난해 발표된 EU 인공지능 법안은 인공지능의 위험을 체계적으로 나누어 그에 따른 차등적인 규제를 한다는 점에서 의의가 있다. 이는 인공지능 규범이 강제적인 규범의 형태로 나아가는 그 시초로서 우리나라에 의미하는 바가 크다. 이러한 위험 기반 접근 방식의 법안은 인공지능에 대한 형식적인 분류를 지양하고, 인공지능이 사회에 미치는 영향이나 중요도를 평가하여 실질적으로 인공지능 시스템을 규제할 수 있다. 우리나라에서도 EU의 인공지능 법안과 같이 인공지능과 관련된 법안, 특히 인공지능을 규제하는 법안(정필모의원 대표발의: 인공지능 육성 및 신뢰 기반 조성 등에 관한 법률안, 윤영찬의원 대표발의: 알고리즘 및 인공지능에 관한 법률안)이 발의되었다. 이러한 법안들은 EU의 인공지능 법안과 같이 위험의 정도에 따른 규제 방식을 택한 법안인 만큼 국민의 생명, 신체, 국가의 사회기반시설 마련, 안보 등에 중대한 영향을 미치는 높은 위험의 인공지능의 경우에는 어느 정도의 책무를 위반했을 때에 어느 정도의 벌칙을 내릴 것인지 명시적인 규정이 마련되어야 한다. EU의 인공지능 법안에서는 허용될 수 없는 위험, 고위험 인공지능 사업자에게 부과된 의무를 위반했을 때에 무거운 과징금을 내야 하는 것을 고려하면, 제재에 대한 규정도 반드시 필요하다. 그리고 이를 위해서는 고위험인공지능 및 특수한 영역에서 활용되는 인공지능에 대한 정의와 이에 해당하는 범위도 더욱 명확해야 한다. 그리고 인공지능으로 인하여 사용자가 피해를 입었을 때에 손해배상청구를 하는 방식, 입증책임의 전환 등에 대한 내용도 통일화시켜서 이용자의 권리를 명백히 보장하여야 할 것이다. 마지막으로 향후 인공지능의 체계적이고 구체적인 규제 방안을 마련하기 위하여 1) 인공지능으로 인한 위험의 구체화, 2) 인공지능에 대한 투명한 관리 체계 마련, 3) 인공지능을 규율하는 특별법이 반드시 제정되어야 한다. 이를 통하여 현재의 인공지능에 관한 많은 윤리원칙이 강제력을 가진 규범으로 운용될 때에 안전하면서 신뢰할 수 있는 인공지능이 우리의 삶을 윤택하게 만들 것이다.
In the near future, new artificial intelligence technologies that have not been seen so far will be commercialized. It is urgent to prepare a new legal system that can regulate artificial intelligence before these predictions become reality. Since artificial intelligence is a double-edged sword that makes our lives convenient but has the risk of violating human rights, it is important to realize the potential of these technologies in a way that minimizes the risk arising from artificial intelligence. Until now, not only Korea but also many countries have chosen a regulatory method without compulsion to prevent the risk of artificial intelligence. However, if this method is adopted, the government’s regulations will have limitations in reality, it will not be easy to block the risks that actually occur in advance, and it will be difficult to come up with a practical solutions. Therefore, for the development of reliable and safe artificial intelligence, it is necessary not to leave the control and supervision of artificial intelligence to autonomy, but to gradually regulate it in the form of compulsory norms within the limit that does not hinder the innovation of artificial intelligence. The EU Artificial Intelligence Act announced last year is meaningful in that it systematically divides the risks of artificial intelligence and regulates them differentially. This is the beginning of the artificial intelligence norms moving forward in the form of compulsory norms, and has a great meaning for Korea. The Act of this risk-based approach can actually regulate artificial intelligence systems by avoiding formal classification of artificial intelligence and evaluating the impact or importance of artificial intelligence on society. In Korea, Acts related to artificial intelligence, such as the EU’s Artificial Intelligence Act, were proposed to regulate artificial intelligence (Rep. Jeong Pil-mo’s bill on fostering artificial intelligence and creating a trust base, and Yoon Young-chan’s bill on algorithms and artificial intelligence). As these Acts are regulated according to the level of risk, such as the EU’s AI Act, explicit regulations should be made on how much penalty to violate high-risk AI, which has a significant impact on people’s lives, bodies, national infrastructure, and security. Considering that heavy fines are required for violating the obligations imposed on high-risk, high-risk artificial intelligence operators that cannot be allowed in the EU’s Artificial Intelligence Act, regulations on sanctions are also essential. And for this, the definition of high-risk artificial intelligence and artificial intelligence used in special areas and the scope corresponding thereto should be more clear. In addition, it is necessary to clearly guarantee the rights of users by unifying the contents of the method of claiming damages and the change of burden of proof when the user is damaged by artificial intelligence. Finally, in order to prepare systematic and specific regulatory measures for artificial intelligence in the future, 1) specify risks caused by artificial intelligence, 2) establish a transparent management system for artificial intelligence, and 3) special laws governing artificial intelligence must be enacted. Through this, safe and reliable artificial intelligence will enrich our lives when many current ethical principles of artificial intelligence are operated as compulsory norms.