건강칼럼
> 고객지원 > 건강칼럼
   인공지능(AI)의 의료행위, 문제점은?

본문



인공지능(AI) 바람이 병원에도 불고 있습니다

우리나라 역시 최근 한 대학병원에서 미국 IBM사의 인공지능 왓슨을 활용해 진료를 시작했는데요. ‘인공지능 의사의 시대가 열린 것입니다. 


그런데, 인공지능(AI) 의사의 의료행위 과정에서 의료사고가 났다면 그 책임은 누구에게 있다고 봐야 할까요? 담당의사와 병원? 인공지능(AI)제조사?


 그렇다면, 인공지능(AI)의 의료적 활용 과정에서 발생할 수 있는 여러가지 문제들을 생각해 볼까요?

 

1.    인공지능(AI)과 의사면허

 

먼저, 인공지능(AI)이 정확도가 높아 앞으로 의료행위의 많은 부분에 활용된다면, 전문 의료진인 의사의 면허와 논란이 발생할 가능성을 생각해봐야 합니다.

의사는 의학이라는 전문 과목을 이수하고, 국가시험을 통해 통과를 해야만 면허가 부여되고, 면허를 부여한다는 것은 전문성을 인정할 뿐만 아니라, 의료법에 의해 면허와 관련된 의무와 책임을 지게 한다는 의미 또한 내포하는 겁니다.

 

ìì¬ë©´íì ëí ì´ë¯¸ì§ ê²ìê²°ê³¼ 


그런데도 만약, 인공지능(AI)의 전적인 판단으로 환자를 진단한다면 그 진단은 누구의 진단일까요

진단 과정 중 해킹이나 기계의 단순오류로 오진을 한다면 이에 따른 악결과의 책임을 누가 지어야 할 것일까요?

 

2.    수집된 정보의 부정확성

 

인공지능(AI)의 진단 과정은 많은 수집된 정보를 토대로 의학적 근거에 따라 진료를 하게 됩니다

이는 인공지능(AI)을 개발한 주체에 따라 모집한 수집된 데이터의 양이나 처리방식이 다를 수가 있다는 의미이므로, 이러한 정보를 기반으로 환자의 질병을 진단한다면 보편적인 판단이 안 될 가능성은 높습니다


이러한 오차범위를 좁히기 위해 인공지능(AI)을 개발하는 회사들은 더 많은 정보 수집에 집중을 하고 있는데, 의료 정보는 기본적으로 개인정보이므로 각 개인에게 일일이 동의를 받지 않는 이상, 정보 수집 과정이 불법적일 수 밖에 없을 거라는 점은 어떻게 설명할 것인지도 문제라고 보입니다.


 ìë£ì ë³´ ìì§ì ëí ì´ë¯¸ì§ ê²ìê²°ê³¼


나아가, 인공지능(AI)의 의료행위의 안정성과 이를 확인하기 위한 임상 검증은 매우 부족하다는 것이 공통된 의견입니다. 실제 국내 대형병원에서 도입하여 활용하고 있는 왓슨의 진단과 담당의의 의견이 다른 경우가 종종 있다고 알려져 있습니다.


3.    풀어나가야 하는 과정


이처럼 많은 사람들이 인공지능(AI)의 의료행위에 기대감을 보이고 있지만, 현 시점에서는 결코 다양한 경험과 전문성을 발휘하여 진료행위를 하는 의사를 인공지능이 대체함에 있어서는 여러가지 법적, 윤리적, 현실적인 문제가 따른다는 점을 명확히 인식해야 할 것입니다.


íìì ëí ì´ë¯¸ì§ ê²ìê²°ê³¼ 


따라서 앞으로 인공지능의 의료행위 영역을 발전적으로 이끌기 위해서는 과학계·의료계·산업계 등이 활발한 논의를 통해 제도 개선 및 보안을 위해 힘써야 할 것이라고 봅니다.  


-리툴코리아 메디컬 연구원 박고운-


추천 0
06621 서울 서초구 서초대로 74길 23 서초타운트라팰리스 9층 906호   |   TEL 02)753-7202
주식회사 리툴코리아   |   대표자 김동희   |   개인정보관리책임자 김연우(contact@retoolkrea.com)   |   사업자등록번호 104-86-56469
통신판매업자등록번호 110111-5499862
Copyright(c) 2017 리툴코리아 ALL RIGHTS RESERVED
이용약관   |   개인정보취급방침   |  이메일무단수집방지
04511 서울특별시 중구 한강대로 416 서울스퀘어 14층
TEL 02)753-7202
주식회사 리툴코리아   |   대표자 김동희
개인정보관리책임자 김연우(contact@retoolkrea.com)
사업자등록번호 104-86-56469
통신판매업자등록번호 110111-5499862
Copyright(c) 2017 리툴코리아 ALL RIGHTS RESERVED