‘사악해지지 말자’던 구글, AI 무기 금지 조항 철회
구글이 최근 AI(인공지능)를 무기 및 감시 도구 개발에 사용하지 않는다는 금지 조항을 삭제하며 논란의 중심에 섰습니다. 매트 마흐무디 국제앰네스티 인공지능 및 인권 연구원은 이에 대해 강하게 비판하며 “구글이 이런 위험한 선례를 남겼다는 것은 매우 부끄러운 일”이라고 꼬집었습니다.
구글의 이번 결정이 왜 우려를 낳을까요? AI는 인권 침해에 어떻게 이용되고 있을까요?
감시부터 무기까지 AI 인권 침해는 현재진행 중
AI 기술은 단순히 삶을 편리하게 만드는 도구로만 쓰이는 것이 아닙니다. 감시 시스템을 강화하거나 치명적인 무기로 활용될 가능성도 큽니다.
- 대규모 감시: 안면 인식 등 기술이 치안 유지를 명분으로 광범위한 감시에 사용될 수 있습니다.
- 치명적인 공격 시스템: 반자동 징후 타격(신원 확인 없이 수상한 행동 패턴만을 근거로 실행하는 공격)을 위한 무기 개발에 사용될 수 있습니다.
- 차별 확대: 특정 집단을 차별하거나 억압하는 데에도 악용될 수 있습니다.
이미 국제앰네스티는 인공지능 안면 인식 기술이 이스라엘, 미국 등지에서 차별적 치안 대응과 집회 시위 권리 위협에 악용된 사례를 기록한 바 있습니다.

이스라엘 예루살렘에 CCTV가 설치되어 있다. 2023년, 국제앰네스티는 이스라엘이 인공지능 안면 인식 시스템을 활용해 팔레스타인인들을 추적하고 이동의 자유 제한을 자동화하고 있음을 폭로한 바 있다.
구글의 변화, 그리고 그 속내
구글은 2018년부터 자체적으로 AI 원칙을 세우며 “인권 침해에 사용될 수 있는 AI는 개발하지 않겠다”고 선언한 바 있습니다. 그런데 이번에 금지 조항을 삭제한 이유로, “국가 안보를 지원하는 AI 개발의 필요성”을 들었습니다.
하지만 이런 구글의 태도 변화는 거센 비판을 받고 있습니다. 이제 구글은 다음과 같은 기술을 강화하는 제품을 회사 차원에서 자유롭게 개발해 판매할 수 있기 때문입니다.
- 대규모 감시 기술
- 반자동 징후타격 드론 기술
- 살상 여부를 빠르게 결정하는 AI 소프트웨어
과거에도 구글의 감시 기반 사업 모델은 이미 사생활권, 표현의 자유, 평등권 등 여러 기본 권리를 위협한다는 이유로 비판받은 바 있습니다. 이런 상황에서 구글의 무기 금지 조항 삭제가 과연 책임감 있는 결정인지 의문이 제기됩니다.
기술이 인권을 침해해서는 안 됩니다
구글은 즉각 AI 무기 및 감시 시스템 개발 금지를 복원해야 합니다.
각 국가는 AI 기술을 인권 원칙에 따라 관리하는 구속력 있는 규정을 마련해야 합니다.
앰네스티의 인권 침해 조사 활동을
후원으로 응원해주세요