인공지능 규율을 위해 위험기반 접근 방식 규율의 적합성에 대해 고찰하였다. 위험기반 규율은 위험관리 분야의 이론과 기술을 기반으로 비교적 최근에 체계적으로 발전된 분야로, 높은 효율성과 실효성으로 주목받는 규율 방식이다. 위험기반 규율은 위험 평가와 위험 관리, 위험 소통 등 과학적으로 개발되고 발전된 이론적 기반을 토대로 사회적 위험을 기준으로 사회를 면밀하고 적절히 규율한다. 사회적 위험은 위험의 강도와 발생 확률을 계량하여 비교되고, 이를 통해 규율에 필요한 자원과 역량을 배분하여 최적의 목표와 그 방법을 설정한다. 그러나 위험기반 규율의 위험 평가와 위험에 대한 인식은 아직까지 존재하지 않은 가상의 위협에 대한 대응에 실효성이 검증되지 않았고, 이는 인공지능 규율의 대상이 미래의 잠재적 위험이라는 점에서 위험기반 규율의 적합성에 의문을 제기한다. 또한, 위험기반 규율의 위험 평가와 인식에 인권과 같은 사회에서 중요한 가치를 지니는 요소들이 반영되지 않는다면, 사회적 위험 관점에 몰입된 규율자원과 역량의 분포는 미처 고려되지 못한 중요한 사회적 가치를 지켜내지 못하게 되는 문제로 귀결된다. 사회 규율을 넓은 범주에서 분류해 보면, 위험기반 방식을 비롯해 규칙기반 방식, 원칙기반 방식, 그리고 인권기반 방식으로 나누어 볼 수 있고, 상기한 위험기반 규율의 문제점과 한계를 수정하거나 개선하기 위해 여러 가지 특성을 보이는 규율 방식에 대한 이해가 필요하다. 인공지능 규율의 상황과 특수성, 그리고 위험기반 규율이 가지는 강점과 문제점, 한계에 대한 이해를 바탕으로 인공지능이 변모시킬 미래 사회를 규율하기 위한 위험기반 규율의 적합성에 대해 검토할 수 있다. 이러한 논의를 바탕으로, 예상할 수 없이 변화를 거듭하는 인공지능이 가져올 수 있는 잠재적 위협에 대응하기 위해서는 굳건히 지켜야 하는 인권 수호를 규율의 기본 가치로 세우고, 위험관리 이론과 기술의 접목을 통해 미래 사회가 필요로 하는 최선의 규율을 고안해야 한다는 결론에 이르게 된다.
For the regulation of artificial intelligence technology, the appropriateness of risk-based regulation was considered. Risk-based regulation is a type of discipline that has been systematically developed relatively recently based on risk management theory and techniques, and is the regulating methodology that is attracting attention for its high efficiency and effectiveness. Risk-based regulation closely and appropriately regulates society based on social risks using scientifically developed and improved theoretical foundations such as risk assessment, risk management, and risk communication. Social risks are determined by quantifying the impact and probability of the risks, and through this, the optimal goal and methods of regulation are set by distributing the resources and capabilities required. However, risk assessment and risk awareness of risk-based regulation have not been proven effective in responding to a hypothetical threat that does not yet exist, and it raises questions about the appropriateness of risk-based regulation in the sense that the target of the regulation of artificial intelligence is a potential risk in the future. In addition, if factors that have important values in society, such as human rights, are not reflected in the risk assessment and risk awareness of risk-based regulation, the distribution of regulating resources and capacities which are excessively focused to the social risk perspective will fail to protect important social values that have not been considered. Classified in a broad category, social regulation can be divided into risk-based, rule-based, principle-based, and human rights-based regulation. In order to correct or improve the abovementioned problems and limitations of risk-based regulation, it is necessary to understand such types of regulations that show various distinctive characteristics. Based on the understanding of the situation and special nature of the regulation of artificial intelligence and the strengths, problems, and limitations of risk-based regulation, it may be possible to determine the appropriateness of risk-based regulation to regulate the future society that may be transformed by artificial intelligence technology. With such discussions, it comes to the conclusion that in order to respond to potential threats brought by artificial intelligence, which continues to change unpredictably, we are required to devise the most proper regulation necessary for our future society by setting the protection of human rights as a fundamental value of regulation and introducing the theory and techniques of risk management.