대통령 경호처 ‘군중 감시 AI’ 도입 논란, 사생활 침해 우려 총정리
Contents Table
참조 : JTBC 뉴스룸
함께읽으면 좋은 글
최근 대통령 경호처가 ‘군중 감시 AI’ 시스템 개발을 추진한 사실이 알려지며 우리 사회에 큰 파장을 일으키고 있습니다. 대통령의 안전을 위한 ‘과학 경호’라는 명분과 국민의 사생활 및 기본권을 침해할 수 있다는 ‘빅브라더’의 그림자가 충돌하고 있는 것입니다. 이번 글에서는 논란의 중심에 있는 군중 감시 AI의 실체와 핵심 쟁점, 그리고 앞으로의 과제까지 자세히 정리해 보겠습니다.
논란의 시작: ‘AI 기반 전영역 경비안전 기술 개발’ 사업
이번 논란은 대통령 경호처가 과학기술정보통신부와 함께 추진하는 연구개발(R&D) 사업에서 시작되었습니다. 공식적인 사업명은 ‘AI 기반 전영역 경비안전 기술 개발’로, 그 내용을 자세히 들여다보면 군중 감시 AI 기술 개발이 핵심임을 알 수 있습니다.
이 사업은 단순히 CCTV를 늘리는 차원을 넘어, 인공지능을 통해 군중 속에서 잠재적 위험인물을 식별하는 것을 목표로 합니다.
‘AI 기반 전영역 경비안전 기술 개발’ 사업 개요 | |
추진 주체 | 대통령 경호처, 과학기술정보통신부 |
연구 주관 | 한국전자통신연구원(ETRI), 민간 기업 |
총 사업 기간 | 2024년 ~ 2028년 (5년) |
총 사업비 | 240억 원 |
주요 목표 | AI를 활용해 대통령 경호 및 경비 구역의 위험 요소를 사전에 탐지하고 대응하는 시스템 구축 |
이처럼 막대한 예산과 기간이 투입되는 국가적인 프로젝트라는 점에서, 해당 군중 감시 AI 기술이 가져올 사회적 영향에 대한 심도 깊은 논의가 필요합니다.
군중 감시 AI, 어떻게 작동하는가?
그렇다면 대통령 경호처가 도입하려는 군중 감시 AI는 정확히 어떤 기술일까요? 단순히 사람들의 움직임을 분석하는 것을 넘어, 개인의 생체 신호와 심리 상태까지 분석하는 것을 목표로 하고 있어 논란이 더욱 커지고 있습니다. 기술 개발은 크게 2단계로 나뉩니다.
- 원거리 생체 신호 추출 (2026년까지): 원거리에 있는 사람의 심박수, 체온, 호흡, 표정 변화 등 눈에 보이지 않는 생체 정보를 영상으로 추출하는 기술입니다.
- 긴장도 분석 및 위험인물 식별 (2028년까지): 추출된 생체 정보를 AI가 분석하여 개인의 ‘긴장도’를 측정하고, 이를 기반으로 주변인과 다른 이상 패턴을 보이는 인물을 ‘잠재적 위험인물’로 분류합니다.
군중 감시 AI 작동 단계 | 세부 내용 |
1단계: 데이터 수집 | 행사장 등의 고정형 카메라, 로봇개나 경호원의 바디캠 등 이동형 카메라로 군중 영상 촬영 |
2단계: 생체 신호 추출 | AI가 영상 속 불특정 다수 시민들의 심박수, 체온, 표정 등 생체 데이터를 원격으로 추출 |
3단계: 긴장도 분석 | 수집된 생체 정보를 기반으로 개인의 심리 상태(긴장도)를 정량적으로 분석 |
4단계: 위험 판단 | 분석된 긴장도와 행동 패턴을 종합해 ‘잠재적 위험인물’을 식별하고 경호팀에 경고 |
문제는 이러한 군중 감시 AI 시스템이 작동하는 과정에서 수많은 시민이 자신도 모르는 사이에 내밀한 생체 정보와 심리 상태를 국가기관에 수집당하고 분석될 수 있다는 점입니다.
안전 보장 vs 사생활 침해
정부와 비판 측의 입장은 ‘안전’과 ‘인권’이라는 가치를 두고 팽팽하게 맞서고 있습니다. 대통령 경호처는 예측 불가능한 위협에 대응하기 위한 첨단 ‘과학 경호’의 일환으로 군중 감시 AI가 필수적이라고 주장합니다. 반면, 시민단체와 야당은 헌법이 보장하는 기본권을 침해하는 명백한 ‘국가 감시’라고 비판합니다.
군중 감시 AI 도입에 대한 찬반 논리 | |
찬성 (정부/경호처 입장) | 반대 (시민단체/야당 입장) |
용산공원 개방 등 변화된 환경에 맞는 경호 필요 | 헌법상 사생활의 비밀과 자유, 개인정보자기결정권 침해 |
인력 중심 경호의 한계 극복 및 경호 효율성 증대 | 국가가 개인의 내면(심리)까지 감시하는 ‘빅브라더’ 사회 초래 |
드론, 테러 등 고도화되는 위협에 대한 사전 대응 | 집회/시위의 자유 등 국민 기본권 위축 가능성 |
첨단 기술을 활용한 ‘과학 경호’로 국민 안전 확보 | AI의 기술적 오류로 인한 무고한 시민의 피해 발생 우려 |
결국 군중 감시 AI 기술은 ‘모두의 안전’이라는 공익적 명분과 ‘개인의 자유’라는 기본권이 어떻게 조화를 이룰 수 있는지에 대한 근본적인 질문을 던지고 있습니다. 특히, 기술의 오남용을 막을 제도적 장치가 부재한 상황에서 도입을 서두르는 것은 매우 위험하다는 지적이 많습니다.
법적·제도적 과제와 사회적 합의의 필요성
현재 우리나라에는 군중 감시 AI와 같이 파급력이 큰 고위험 AI 기술을 규제하고 관리할 명확한 법적 근거가 미비한 실정입니다. 국회에서 ‘인공지능 기본법’ 등이 논의되고 있지만, 개인정보보호와 인권 침해 방지를 위한 구체적인 조항은 여전히 보완이 필요합니다.
이러한 군중 감시 AI 시스템이 도입되기 전에 반드시 다음과 같은 사회적 논의와 제도적 보완이 선행되어야 합니다.
- 엄격한 법적 통제: 기술의 사용 목적, 허용 범위, 데이터 수집 및 파기 절차 등을 법률로 명확히 규정해야 합니다.
- 독립적인 감독 기구: AI 기술의 오남용을 감시하고 시민의 권리를 구제할 수 있는 독립적인 기구의 설치가 필요합니다.
- 투명한 정보 공개와 사회적 합의: 기술의 내용과 운영 계획을 국민에게 투명하게 공개하고, 충분한 사회적 논의를 통해 합의를 도출하는 과정이 필수적입니다.
기술 발전과 민주주의의 갈림길
대통령 경호처가 추진하는 군중 감시 AI 도입 논란은 첨단 기술 발전이 우리 사회에 던지는 무거운 질문을 상징적으로 보여줍니다. 기술은 사회를 더 안전하고 효율적으로 만들 수 있지만, 동시에 개인의 자유를 억압하고 통제하는 강력한 도구가 될 수도 있습니다.
군중 감시 AI 기술의 도입 여부는 단순히 하나의 정책 결정을 넘어, 우리 사회가 지향하는 가치가 어디에 있는지를 묻는 중요한 시험대가 될 것입니다. 기술의 발전이 민주주의의 후퇴로 이어지지 않도록, 시민들의 지속적인 관심과 사회적 논의가 그 어느 때보다 중요한 시점입니다.