[기고] 보건의료 분야 인공지능 활용에 필요한 유럽과 미국의 관련 규제 동향

최미연 대표변호사(법률사무소 파나케이아)

메디파나 기자2024-04-15 06:00

이제 Chat GPT를 모르는 사람은 없을 정도로 생성형 인공지능의 발달과 사회에 미친 영향은 매우 크고, 현재도 계속되고 있다. 인공지능의 발달과 더불어 이를 규제하기 위한 법과 제도도 세계적으로 마련되는 추세다.

우선 AI ACT라는 유럽 인공지능법이 2021년 처음 발표된 후 3년간의 논의를 통해 지난 3월 중순 유럽의회에서 승인됐다. 대략 2026년 이후 전면 시행될 예정이다. 이러한 추세에 따라 우리나라도 현재 약 9개 정도의 인공지능 관련 제·개정법안이 국회 계류 중이다.

이번 기고문에서는 보건의료 분야에서 AI를 활용하고자 하는 분들을 위해, 세계 최초로 제정된 유럽의 인공지능 법안(AI ACT)과 미국의 인공지능 행정명령(안전성, 보안성 및 신뢰성을 갖는 AI의 개발과 활용에 관한 행정명령)의 주요 내용과 차이점에 대해 간략히 살펴보고자 한다.

먼저 적용대상과 관련하여, 유럽의 인공지능법은 민간기업도 규제 대상인 반면 미국의 행정명령은 연방정부기관으로 그 적용대상이 한정되어 있다. 다만, 미국의 행정명령의 경우 인공지능을 개발하는 기업들에게는 일종의 권고적 성격을 가지게 되어, 결국 준수해야 할 기준으로 작용하리라 예상된다.

유럽의 인공지능법의 큰 특징을 살펴보면, 인공지능 시스템을 크게 4가지 위험으로 분류하고 있다는 점이다. 가장 위험한 인공지능 시스템을 '수용불가능한 위험'으로 정의하고, '고위험', '제한된 위험', '최소 위험' 순서로 정하고 있다. 이 중 인간의 잠재의식과 관련된 기술, 인간의 취약성을 이용하는 기술, 실시간으로 생체인식을 하는 기술 등과 같이 ‘수용불가능한 위험’에 속하는 인공지능은 아예 사용이 금지된다.

반면, '고위험', '제한된 위험', '최소 위험'의 경우는 사용이 가능하지만 각 위험 수준에 따라 일정한 심사 절차를 거치도록 하는 등 의무를 부여하고 있다. 예를 들어, '고위험' 인공지능에 해당하는 주요 기반시설에 관한 인공지능, 직업훈련이나 교육 관련 인공지능, 법집행과 관련된 인공지능 등의 경우, 이러한 인공지능 시스템을 시장에 내놓기 위해서는 향후 기업들이 적합성 심사와 인증을 의무적으로 거쳐야만 한다.

'제한된 위험'에 해당하는 인공지능은 흔히 우리가 접하는 챗봇 수준이고, '최소 위험'의 인공지능은 비디오 게임 수준으로 설명할 수 있다. 이 중 '제한된 위험'의 인공지능의 경우 사용자가 인공지능 시스템을 이해할 수 있도록 투명하게 설계하고 개발해야 하며 이를 위한 지침이 제공되어야 하는 등 일정한 의무를 부과하고 있다. 반면, 가장 위험 수준이 낮은 '최소 위험'의 인공지능에 대해서는 적합성 심사와 인증을 거치도록 단순히 권고하는 수준에 불과하다.

이와 같이 유럽에서 제한된 위험 수준 이상의 인공지능 제품을 내놓고자 하는 기업들은 많은 절차를 거쳐야 한다는 것을 쉽게 확인할 수 있다. 그렇다면 미국의 인공지능 행정명령은 어떨까. 미국의 인공지능 행정명령 역시 인공지능 개발과 사용에 안전과 보안, 국민의 개인정보 보호, 평등과 인권을 중요시하고 있다.

특히, 미국에서는 인공지능의 사용으로 인해 의료, 주거 등에서 차별을 가중시키지 않도록 정하고 있다. 의료 분야와 관련해서 구체적으로 살펴보면, 의료서비스 제공자가 인공지능 관련 연방 정부의 차별금지법을 준수하도록 하는 조치를 취할 수 있다거나, 인공지능을 활용한 신약 개발을 규제하기 위한 목표와 원칙 등을 수립할 예정이라고 언급했다.

이처럼 유럽의 인공지능법에서는 위험 수준에 따라 인공지능을 분류하지만 의료 등 특정 영역에 대한 규제 사항을 별도로 정하지 않은 반면, 미국의 인공지능 행정명령에서는 소비자, 환자, 승객, 학생, 근로자라는 특정 영역에 속한 국민들에 대한 보호를 구체적으로 다루고 있다. 이 중에서 특히 의료 분야에서의 차별 금지를 강조하는 특수성은 잘 알려진 미국의 의료 시스템의 문제점들과 관련성이 있다고 할 수 있다.

한편, 우리나라의 인공지능 관련 법안들의 경우는 국회에 계류 중에 있지만, 인공지능 규제를 완화했다는 비판을 시민단체로부터 받고 있는 등 아직까지는 사회적 합의의 수준에 이르지는 못한 것 같다. 다만, 작년에 개정된 개인정보 보호법에서는 제4조 제6호 및 제37조의2를 신설하여, 자동화된 시스템으로 개인정보를 처리하여 이루어지는 결정이 자신의 권리 또는 의무에 중대한 영향을 미치는 경우에는 해당 결정을 거부하거나 해당 결정에 대한 설명 등을 요구할 수 있는 권리를 규정했다.

국내의 경우 현재 인공지능으로 인한 프라이버시나 차별의 문제가 구체화되거나, 인공지능 규제에 대하여 심도있는 사회적 합의에까지는 이르지는 못한 것으로 보이지만, 국내에서도 인공지능이 점차 활성화됨에 따라 이와 관련된 법안이 신속하게 마련하여 시행할 필요성이 있다.


|기고| 최미연 대표변호사(법률사무소 파나케이아)

-사법시험 제55회 합격, 사법연수원 제45기 수료
-고려대학교 법과대학 학사 및 일반대학원 석사(행정법 전공)
-대한의료데이터협회 상임이사
-한국보건의료정보원 보건의료데이터심의 전문위원
-前 보건복지부 규제개혁법무담당관 전문위원(법률전문관)

-----*-----
※본 기고는 메디파나뉴스의 편집 방향과 일치하지 않을 수도 있습니다.
 

메디파나뉴스 : 메디파나 기자

기사작성시간 : 2024-04-15 06:00

이런 기사
어때요?

실시간
빠른뉴스

당신이
읽은분야
주요기사

독자의견

작성자 비밀번호

0/200

메디파나 클릭 기사

독자들이 남긴 뉴스 댓글

포토