행정기본법 제20조는 인공지능 기술을 적용한 완전히 자동화된 시스템으로 처분을 허용하는 규정을 두면서 그 적용범위에서 재량은 제외하고 있다. 그렇지만 이 규정만으로는 행정 영역에서 인공지능 도입의 가능성과 그 범위 및 한계는 분명하지 않다. 재량 영역에서 자동적 처분을 어디까지 허용할 것인지에 관하여는 다양한 이론적 논의가 이루어지고 있고, 그 이외에도 기속 영역에서의 자동적 처분이나 재량 영역에서 부분자동화에 관하여 행정기본법에서 별다른 절차적인 보완 규정을 두지 않은 상황에 대한 검토도 필요하다. 핀란드와 에스토니아 법안을 보면 재량의 경우에도 처리규칙이나 행정지침을 사전에 설정한 경우 및 규칙기반 인공지능을 사용하는 경우에 자동적 처분을 허용한다. 그리고 에스토니아의 경우에는 불확정법개념의 경우 판단여지가 인정되는지 여부와 무관하게 재량과 동일한 범위로 자동화 처분의 적용범위를 제한한다. 반면 자기학습 인공지능의 경우에는 핀란드와 에스토니아 법안, 2020년 유럽사법재판소의 판결, 2018년 프랑스 헌법위원회 결정은 이를 배제하는 입장을 보인다. 한편 캐나다와 프랑스의 경우 자동적 처분에 대한 규율에서는 완전자동적 처분 뿐만 아니라 부분자동적 처분도 규율 대상으로 포함하고, 완전자동적 처분의 적용범위를 설정함에 있어 기속과 재량의 구분은 사용되지 않는다. 캐나다에서는 알고리즘 영향평가 결과 일정 레벨에 해당하는 경우에는 최종 결정은 인간이 내리도록 하고 있어 완전자동적 처분이 배제되도록 하는 반면, 프랑스는 완전자동적 처분을 허용하지만 알고리즘의 처분 및 그 변동에 관한 지배를 요건으로 한다. 독일에서는 기속에 해당하는 불확정법개념도 표준화가 어려운 경우에는 완전자동화의 대상에서 제외되고, 재량의 경우에도 표준화 및 유형화가 가능한 경우에는 완전자 동화의 대상이 될 수 있다고 봄으로써 기속과 재량에 대한 유연한 해석론이 도입되고 있다. 자기학습 인공지능의 사용과 관련하여서는 제한적으로 접근하는 견해와 독일 연방행정절차법 제 35a조의 입법론적 개선을 통하여 보다 적극적으로 접근하는 견해가 나타나고 있다. 인공지능을 활용한 자동적 처분에서는 자동화로 인한 효율성과 비용절감이라는 공익과 자동화에 따른 인간의 존엄성과 기본권 침해의 형량이 필요하고, 그 판단 기준으로서는 기속인지 재량인지, 부분자동화인지 완전자동화인지, 규칙기반 시스템인지 자기학습 시스템인지 보다는 법치주의와 기본권 보장을 위한 실질적인 인적 개입의 보장 수준이 더 중요하다. 표준화·정형화가 가능한 결정에서는 인간에 의한 결정 기준의 마련 및 그 기준의 시스템에의 반영, 자동화 시스템으로 결정이 이루어진다는 점에 관한 통지, 결정 과정에서의 의견제출 및 그에 대한 인간의 검토 기회 보장, 결정에 대한 설명 제공 및 이의 기회가 부여됨을 전제로 완전자동화가 가능하다. 개별 사례의 구체적인 사정에 대한 인간적 관점에서의 고려가 필요한 결정에서는 인간의 최종적이고 실질적인 책임을 보장하기 위하여 자동화 편향을 방지하기 위한 적절한 조치가 있어야 하고, 자동화 시스템에 의한 결정이 이루어지기 이전에 적절한 인간 개입 절차가 마련되어야 한다. 자기학습 시스템의 도입과 관련하여서는 법치주의 관점에서 그러한 시스템에 최종 의사결정 권한을 부여할 수 있는지 및 그러한 권한 부여를 위하여 어떠한 실질적인 인적 개입 방안이 확보되어야 할 것인지가 규명되어야 한다.
Article 20 of Korean General Act on Public Administration stipulates that dispositions are permitted by a fully automated system using artificial intelligence technology, while excluding discretion from the scope of application. However, this provision does not clearly indicate the possibility, scope, and limitations of the use of artificial intelligence in public administration. There are various theoretical discussions regarding the extent to which automatic dispositions should be permitted in the discretionary domain, and it is also necessary to review the situation in which Korean General Act on Public Administration does not provide any separate procedural supplementary provisions regarding ‘complete automation in bound dispositions’ and ‘partial automation in the discretionary domain’. Looking at the Finnish and Estonian bills, automatic dispositions are allowed even in cases of discretion, when administrative guidelines are established in advance and when rule-based artificial intelligence is used. In addition, Estonia sets the scope of application of automated dispositions in the same way as discretion, even when uncertain legal concepts are used. In the case of self-learning artificial intelligence, the Finnish and Estonian bills, the 2020 ruling of the European Court of Justice, and the 2018 decision of the French Constitutional Council show a stance of excluding this. In the case of Canada and France, not only fully automated dispositions but also partially automated dispositions are included as subjects of regulation, and the distinction between bound dispositions and discretion is not used. In Canada, when the results of the algorithmic impact assessment correspond to a certain level, the final decision is made by a human, so fully automated dispositions are excluded, while France imposes a ‘mastery’ requirement on the disposition of algorithms and their changes for fully automated dispositions. In Germany, uncertain legal concepts are excluded from fully automated dispositions when standardization is difficult. In the case of discretion, if standardization is possible, it can be subject to fully automated dispositions. In other words, a flexible interpretation of bound dispositions and discretion is being introduced as a standard for full automation. Regarding the use of self-learning artificial intelligence, there are views that take a restrictive approach and views that take a more active approach through legislative improvements to Article 35a of the German Federal Administrative Procedure Act. In the case of automated dispositions using artificial intelligence, it is necessary to balance the public interest of efficiency and cost reduction due to automation with the violation of human dignity and fundamental rights due to automation. The criteria for judgment are more important than whether it is bound or discretionary disposition, partial or complete automation, rule-based system or self-learning system, and the level of practical human intervention necessary to ensure the rule of law and fundamental rights. The prerequisites for complete automation in decisions that can be standardized are as follows: human-set criteria and their reflection in the system, notification that decisions are made by an automated system, submission of opinions during the decision process and guarantee of human review thereof, provision of explanations for decisions, and opportunity to raise objections to decisions. In decisions that require consideration of the specific circumstances of the case from a human perspective, appropriate measures should be taken to prevent automation bias in order to ensure the final and practical responsibility of humans, and appropriate human intervention procedures should be established before decisions are made by automated systems. In relation to the introduction of self-learning systems, it should be clarified whether the final decision-making authority can be granted from the perspective of the rule of law and what measures are the effective human intervention.