주요뉴스

NEWS

기계에 살인면허를?…AI무기 윤리·국제법 논란 가열

작성자
admin
작성일
2020-03-19 15:37
조회
17


윌리엄 셰익스피어 희곡 <햄릿>에서 주인공 햄릿은 ‘죽느냐 사느냐 그것이 문제로다’라고 독백한다. 전쟁터나 분쟁지역에서 죽고사는 문제를 인간이 아닌 기계가 결정할 수 있는 시대가 다가오고 있다. 인공지능(AI)기술이 비약적으로 발전하면서, 인간의 판단이나 조작에 의존하지 않는 인공지능 무기가 등장하고 있다. ‘기계가 스스로 판단해 사람을 죽일 수 있느냐’는 논란도 커지고 있다. 지난 1월 미국이 이란의 혁명수비대 쿠드스군 사령관 가셈 솔레이마니를 이라크에서 공격할 때 무인기(MQ-9 리퍼)가 미사일을 발사했다. 당시 미 본토에서 근무하는 무인기 조종사가 원격 조종해 공격했다.

여기서 더 나아가 기계에 인공지능 로봇기술을 장착하면, 인간의 판단이나 조작에 의존하지 않고 스스로 표적을 찾아서 공격하는 인공지능 무기가 된다. 흔히 말하는 살인 로봇인데, 전문가들은 자율형 살상무기시스템(LAWS)으로 부른다. 예컨대 이스라엘 무인공격기(하피)는 적 레이더 기지 등 공격 대상을 사전에 입력해 놓으면 발사 이후에는 스스로 적 레이더 신호를 포착해 목표물을 발견하고, 돌진해 자폭한다. 하피는 우리 공군도 도입해 쓰고 있다. 자율형 살상무기시스템은 공격명령을 내리는 주체가 사람이 아니기 때문에 ‘기계가 사람을 죽이면 안 된다’는 반대에 직면하게 된다. 국제법상 자위권적 공격인 경우에는 적의 공격 위협이 임박하고, 이를 막을 다른 수단이 없을 경우 위협 정도에 비례하는 수준으로만 허용된다. 자율형 살상무기시스템엔 이를 적용하기 어렵다. 인공지능 무기를 놓고 한쪽은 `기계에 사람을 죽일 수 있는 권한을 줄 수 없다’고 주장한다. 다른 쪽은 인공지능이 결정하는 것이 아니라 인간(프로그래머)이 설정한 알고리즘에 따라 이뤄진다고 주장한다.

국제사회에서는 과학기술이 발전한 나라와 그렇지 못한 나라의 주장이 엇갈린다. 인공지능 무기 개발이 더딘 브라질, 아르헨티나 등 중남미 국가들은 규제를 강화해야 한다고 주장하고 무기강국인 미국, 유럽, 중국은 소극적이다. 한국도 이 논란에서 예외가 아니다. 2018년 8월 외국 로봇학자 50여명이 ‘카이스트와의 공동 연구 보이콧’을 선언했다. 이들은 한국과학기술원(카이스트)의 인공지능 무기연구를 문제 삼았다. 카이스트와 한화시스템은 국방인공지능융합연구센터를 세워 인공지능 기반 지능형 물체추적 및 인식기술 등을 개발하고 있었다. 당시 카이스트는 “통제력이 결여된 자율무기를 포함해 인간 존엄성에 어긋나는 연구 활동을 수행하지 않을 것”이라고 해명한 바 있다.

지난 2월 국방부는 인공지능·드론 기술을 신속하게 무기체계에 적용해 도입하기로 하고, 올해 예산 300억원을 투입한다고 밝혔다. 군은 드론 전력화에 적극적이다. 현재 군이 확보를 고려 중인 공격 드론은 자폭형(표적을 식별한 뒤 비행체 스스로 표적에 충돌 공격)에 집중돼 있다. 이 구상의 뼈대는 육군의 야포나 박격포와 같은 기존 타격체계를 상당 부분 자폭형 드론으로 대체하겠다는 것이다. 지금까지 인공지능 무기 관련 국내 논의가 기술 측면, 군사적 효용성에 치우쳐, 윤리·철학·국제법 분야까지 사회적 논의가 확장돼야 한다는 지적도 나온다. 미 국방부가 만든 전시 인공지능 사용에 관한 5가지 윤리 지침(책무성, 공정성, 추적가능성, 신뢰성, 통제가능성)이 지난달 공개됐다. 미 정부와 산업계, 학계 등 인공지능 전문가들이 위원회를 꾸려 15개월 동안 논의해 이 지침을 만들었다. 구글 회장을 지낸 에릭 슈밋이 위원장을 맡았다.

권혁철 한겨레평화연구소장

2020-03-09 한겨레 원문보기