메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색
질문

논문 기본 정보

자료유형
학술저널
저자정보
손영화 (인하대학교)
저널정보
인하대학교 법학연구소 법학연구 법학연구 제25집 제3호
발행연도
2022.9
수록면
275 - 315 (41page)
DOI
10.22789/IHLR.2022.09.25.3.9

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색
질문

초록· 키워드

오류제보하기
EU AI 규칙안에서는 AI 위험을 수준에 따라 unacceptable, high, low or minimal로 구분하고 위험수준에 비례하는 위험관리를 제안하고 있다(위험수준별(Risk-based) 규제). AI 시스템의 의도된 사용목적, 사용정도, 건강·안전·기본권에 미치는 영향, 피해의 강도 및 범위, 피해복원 가능성 정도 등을 고려하여 AI 시스템의 위험수준을 평가하고 있다. 그에 따라 그 위험은 4단계로 구분하고, 허용할 수 없는 위험(unacceptable risk)을 초래할 수 있는 AI 시스템의 활용은 금지하고, 고위험(high risk) AI 시스템은 요구사항 충족 시 허용하는 원칙을 제안하고 있다.
EU의 AI 규칙안은 우리나라 기업에도 적용될 수 있는 지리적 적용범위를 정하고 있기 때문에 자사가 연구개발 또는 판매하고 있는 AI 시스템 중에 이 적용범위에 포함될 수 있는 것이 있는지를 밝혀내는 것이 요구된다.
EU AI 규칙안상의 이른바 허용할 수 없는 위험의 AI 시스템이라는 개념은 AI와 관련한 산업 및 법정책에 미치는 영향이 지대할 것으로 기대된다. 특히, AI가 초래할 위험과 관련하여 기본적 인권에 대한 위험(개인 데이터와 프라이버시 보호, 비차별을 포함)의 문제에 대해서는 빠른 시일 내에 이에 대한 대응책이 완비되지 않으면 안 될 것이다. AI가 정부기관 등에 의해서 대규모 감시의 목적으로 이용되거나 고용주에 의해서 종업원의 행동을 감시하는 목적으로 이용되는 것, AI가 익명화된 데이터(de-anonymise data)의 재인식에 이용되는 것, 온라인 중개 사업자(플랫포머)에 의해서 사용자 기업의 정보를 우선 시키거나 컨텐츠의 조정을 실시하기 위해서 이용되는 것, 인간의 의사결정과 같은 편견이 AI에 존재할 수 있는 것 등의 위험에 대해서 대응하지 않으면 안 될 것이다.

목차

국문초록
Ⅰ. 서론
Ⅱ. 허용할 수 없는 위험의 AI 시스템
Ⅲ. AI 규칙안상의 실시간 원격 생체인식 시스템의 사용 금지
Ⅳ. 시사점
Ⅴ. 결론
참고문헌
ABSTRACT

참고문헌 (0)

참고문헌 신청

함께 읽어보면 좋을 논문

논문 유사도에 따라 DBpia 가 추천하는 논문입니다. 함께 보면 좋을 연관 논문을 확인해보세요!

이 논문의 저자 정보

이 논문과 함께 이용한 논문

최근 본 자료

전체보기

댓글(0)

0

UCI(KEPA) : I410-ECN-0101-2023-360-000056314