통합 검색
통합 검색
한국보건의료연구원(NECA, 원장 이재태)은 의료 현장에서 빠르게 확산되고 있는 생성형 인공지능(AI)의 바람직한 활용 방향을 제시하기 위해 ‘의료 분야 생성형 인공지능 적정 활용 원칙’을 7일 발표했다. NECA는 이번 원칙의 목표를 ‘AI를 잘 만드는 것이 아니라, 잘 사용하는 것’으로 명확히 했다.
이번 원칙은 기술 규제나 세부 가이드라인 제시보다는, 의료 AI를 사용하는 모든 주체가 공유해야 할 ‘사회적 약속(Social Compact)’에 초점을 맞춰 △개발자·서비스 제공자 △의료인 △국민(이용자) 등 세 주체별 핵심 역할과 실천 원칙으로 구성됐다.
먼저 개발자·서비스 제공자는 환자 안전과 투명성을 기반으로 신뢰할 수 있는 의료 AI를 설계 및 제공해야 하며, 공정성과 설명가능성 강화, 인간 감독의 내재화(Human-in-the-loop)가 핵심 원칙으로 제시됐다. 또한 △오류 발생 시 신속한 개선과 정보 공개 △AI 생성 결과의 명확한 표시 △정보취약층을 고려한 쉬운 말 모드 △필수 정보 자동 확인(slot filling) 등 접근성 강화 책임도 포함됐다.
의료인은 AI를 임상 판단을 보조하는 참고 도구로 활용하되, 최종 의사결정의 책임은 의료인에게 있음을 분명히 했다. 이를 위해 △근거 기반 검증 △환자 중심 설명과 동의 △오류 예방과 학습 △지속적인 디지털 역량 강화가 핵심 실천 원칙으로 제시됐다.
국민(이용자)은 AI를 자기 보호와 판단을 돕는 보조 도구로 인식해야 하며, △자율과 책임 △안전한 사용 △개인정보 보호 △비판적 이해를 원칙으로 삼아야 한다. 특히 응급·고위험 상황에서는 AI 답변에만 의존하지 않고 즉시 의료기관을 이용하도록 했으며, 답변이 이상하거나 불편할 경우 즉시 사용을 중단하는 등 생활 속 실천 수칙도 함께 제시됐다.
[출처링크] 의료기기뉴스라인
댓글 0