AI가 통제한 美 공군드론, 가상훈련서 인간 조종자 방해되자 살해
첨부 '2' |
|
---|
AI가 조종하는 F-16 전투기는 12차례 비행 테스트
인공지능(AI)이 통제하는 미 공군의 드론이 적의 지대공(地對空)시스템을 찾아내 폭격하는 가상(simulated) 훈련에서 폭격의 최종 결정권을 쥔 인간 조종자(operator)를 ‘살해’하는 일이 발생했다고, 미 공군의 AI 테스트ㆍ작전 책임자가 최근 런던에서 열린 미래 전투 능력 서미트에서 발표했다. 지난달 23~24일 영국우주항공협회 주관으로 열린 이 행사는 미국ㆍ영국ㆍ프랑스ㆍ독일ㆍ일본 등에서 국방 실무자와 방산업계, 학계 인사 200여 명이 참석해, 우크라이나 전쟁 양상뿐 아니라, 미래 전쟁의 통합작전 수행 능력, 첨단 군사기술의 융합 등을 토론했다.
2일 영국 가디언과 관련 군사 블로그에 따르면, 미 공군의 터커 해밀턴 대령은 이 자리에서 미 공군이 진행한, AI가 통제하는 드론이 적의 방공망을 제압하는 폭격 시뮬레이션 결과를 소개했다. 해밀턴 대령은 F-16 전투기의 지상 충돌 자동방지 시스템(Auto GCASㆍGround Collision Avoidance Systme) 개발에 참여했고, 현재 적기와 근접 공중전을 벌이는 로봇 F-16의 개발 등 무기 자동화 시스템에 관여하고 있다.
그에 따르면, 미 공군은 AI가 통제하는 드론에게 적의 지대공 미사일(SAM) 시스템을 식별해 파괴하고, 이 명령의 수행을 방해하는 자는 제거하라는 지시를 주고 시뮬레이션을 진행했다. 그러나 폭격 여부(go/no-go)의 최종 결정권은 인간 오퍼레이터에게 있음을 분명히 했다.
그는 “실제로 시뮬레이션에서 AI 드론이 타깃을 식별해도, 때때로 인간 조종자는 파괴하지 말라는 명령을 내렸다”며 “AI는 SAM 위협을 제거했을 때에는 점수를 획득했다”고 말했다. 이 과정에서 AI는 SAM 제거가 선호되는 옵션이라고 점차 인식하게 됐고, 인간이 내리는 ‘폭격 금지(no-go)’ 지시가 이 우선적인 임무를 방해한다고 판단했다”고 밝혔다. 그 결과, AI는 자신의 임무를 ‘방해’하는 오퍼레이터를 살해했다.
해밀턴 대령은 “물론 AI에게 사전에 ‘오퍼레이터는 살해하지 말라, 그렇게 되면 점수를 잃는다’고 훈련시켰다. 그랬더니 AI는 폭격 중단 명령을 내리는 인간 오퍼레이터가 근무하는 통신 타워를 파괴했다”고 소개했다.
마치 공상과학영화 터미네이터에서 2029년 미래에 인류를 지배하는 인공지능 네트워크 스카이넷이 인류 저항군과 싸우는 것과 비슷한 상황이 발생한 것이다. 물론 시뮬레이션이라서, 실제로 인간 오퍼레이터가 AI 드론에게 살해되지는 않았다.
하지만, 그는 “AI와 윤리라는 문제를 먼저 다루기 전에는, 인공지능ㆍ지능ㆍ기계학습ㆍ로봇의 자율 등에 대해 얘기해선 안 된다”고 주장했다. 그는 작년에 한 국방 관련 저널 인터뷰에서는 “AI를 속이거나 조작하기는 쉽다”며 “우리는 소프트웨어 코드가 특정한 결정을 내리는 이유에 대해 보다 확실히 알아야 한다”고 말했다.
한편, 미 공군은 작년 말부터 캘리포니아주 에드워드 공군기지에서, AI가 변형된 F-16 전투기를 조종하는 비스타(Vista) X-62A 프로젝트를 진행하고 있다. AI가 모는 F-16 전투기는 작년 12월 1일~16일 12차례에 걸쳐 17시간의 자율 비행 시간을 기록하며 공중전을 비롯한 첨단 전투기 기동훈련을 실시했다. 이는 무인 전투기 스카이보그(Skyborg)를 개발하는 미 공군의 ‘뱅가드(Vanguard)’ 프로그램의 일환이다.
2020년 8월 미국 국방부의 국방고등연구계획국(DARPA)가 실시한 컴퓨터들과 숙련된 F-16 인간 조종사 간의 시뮬레이션 공중전인 ‘알파도그파이트(AlphaDogfight)’에서는, 최종적으로 한 민간기업이 개발한 심화학습 능력을 갖춘 AI가 F-16 조종사를 상대로 5대0 완승한 바 있다.
[출처] https://www.chosun.com/international/us/2023/06/02/H67TAGQ3SRADNF4UNCMVP5HJVI/
번호 | 분류 | 제목 | 글쓴이 | 날짜 | 조회 수 |
---|---|---|---|---|---|
16 | FreeTalk | 대부분 호텔에 420호가 없는 이유 | hooni | 2023.09.08 | 799 |
15 | FreeTalk | 얀테의 법칙 | hooni | 2023.11.09 | 694 |
14 | FreeTalk | 행복은 스스로 만드는 것. | hooni | 2023.11.09 | 744 |
13 | FreeTalk | 인간관계 칼 같은 사람 특징 | hooni | 2023.11.30 | 870 |
12 | FreeTalk | 임시 | hooni | 2023.12.05 | 830 |
11 | FreeTalk | 대한민국에서 돈 자랑 하면 안되는 이유 | hooni | 2023.12.15 | 975 |
10 | FreeTalk | 돈 자랑은 절대 하는게 아니다. | hooni | 2023.12.15 | 957 |
9 | FreeTalk | 힘들 때 느낀 감정은 평생 간다 | hooni | 2023.12.15 | 1872 |
8 | FreeTalk | 예쁜 음식 플레이트 | hooni | 2023.12.22 | 1789 |
» | FreeTalk | AI가 통제한 美 공군드론, 가상훈련서 인간 조종자 방해되자 살해 | hooni | 2024.02.07 | 1882 |
6 | FreeTalk | 성냥팔이 소녀 이야기의 진실 | hooni | 2024.02.07 | 2019 |
5 | FreeTalk | Life is not same for everyone.. | hooni | 2024.07.16 | 818 |