본문 바로가기
카테고리 없음

노머시 AI예측수사 (대체데이터, 범죄판단, 통제사회)

by seilife 2026. 2. 19.

2026년 현재 인공지능과 대체 데이터 기술은 금융, 의료, 유통을 넘어 공공 치안 시스템까지 깊숙이 확장되고 있다. 초거대 AI 모델은 개인의 일상 데이터를 분석해 미래 행동 가능성을 예측하는 단계에 이르렀고, 일부 국가는 이를 범죄 예방 정책에 도입하려는 움직임을 보이고 있다. 영화 ‘노머시’는 이러한 최신 기술 트렌드를 배경으로, AI가 범죄를 사전에 판단하는 사회에서 벌어지는 갈등과 윤리적 딜레마를 치밀하게 그려낸다. 이 작품은 단순한 SF 스릴러를 넘어, 2026년 우리가 실제로 고민해야 할 데이터 윤리와 통제사회 문제를 정면으로 다룬다.

노머시 대체데이터 기반 범죄판단 시스템의 구축과 사회 구조의 변화

영화는 국가 프로젝트 ‘아르고(ARGO)’의 시범 운영 장면으로 시작한다. 초대형 통합 관제센터에는 수천 개의 모니터가 도시 전역의 데이터를 실시간으로 보여준다. 교통 흐름, 군중 밀집도, SNS 실시간 키워드, 응급 신고 패턴까지 한눈에 시각화된다. 아르고는 이 모든 데이터를 통합 분석해 특정 시간과 장소, 그리고 개인의 범죄 발생 확률을 계산한다. 아르고의 차별점은 단순 범죄 기록이 아닌 ‘대체 데이터’ 활용이다. 개인의 SNS 게시 빈도 변화, 감정 분석 점수, 온라인 쇼핑 품목의 급격한 변화, 스트리밍 콘텐츠 장르 전환, 심야 시간대 위치 이동, 심박수와 수면 패턴의 급격한 변동, 심지어 키보드 입력 속도 변화까지 분석 대상이 된다. 2026년 현재 실제 기술 환경에서 충분히 구현 가능한 데이터 분석 범위를 영화적으로 확장한 설정이다.

정부는 이 시스템이 범죄를 ‘예방’하는 데 목적이 있다고 강조한다. 실제로 시범 운영 6개월 만에 강력 범죄 발생률이 크게 감소한다. 언론은 이를 “치안 혁명”이라 칭하고, 시민들은 안전한 밤거리를 체감한다. 보험료 인하, 경찰 인력 재배치 효율화 등 경제적 효과도 뒤따른다. 하지만 시스템이 확장될수록 미묘한 변화가 감지된다. 개인별 위험 점수는 내부적으로 관리되지만, 공공기관과 일부 기업이 이를 참고하기 시작한다. 고위험군으로 분류된 시민은 대출 심사에서 불리해지고, 공공기관 채용에서 추가 검증 대상이 된다. 공식적 처벌은 아니지만 사회적 낙인이 형성된다.

주인공 강태윤 형사는 20년 경력의 베테랑으로, 인간의 동기와 감정의 복잡성을 누구보다 잘 이해하는 인물이다. 그는 초반에는 아르고의 성과를 긍정한다. 실제로 폭력 사건을 사전에 차단하는 데 성공했기 때문이다. 그러나 그는 점차 데이터 기반 판단이 사람을 ‘가능성의 집합’으로만 규정한다는 점에 의문을 품는다. 특정 지역 주민들이 반복적으로 고위험군에 포함되는 현상은 과거 범죄 통계의 편향에서 비롯된 것이다. 범죄 신고가 많았던 지역은 데이터상 위험 지역으로 학습되었고, 그 지역 주민들은 구조적으로 높은 점수를 받는다. 경찰 순찰이 늘어나 사소한 위반도 기록되고, 그 기록이 다시 데이터에 반영되며 점수는 더욱 상승한다. 이 자기 강화 구조는 사회적 불평등을 자동화한다.

영화는 시민들의 일상 변화도 세밀하게 묘사한다. 사람들은 SNS에 감정적 표현을 자제하고, 검색 기록이 오해받지 않도록 스스로 검열한다. 밤늦은 시간 산책이나 혼자 있는 시간을 의식적으로 줄인다. 겉으로는 평온하지만, 보이지 않는 점수 체계가 개인의 행동을 조정하는 사회가 형성된다. 안전이 강화되는 만큼 자유의 여백은 조금씩 줄어들고, 시민들은 그 변화를 정확히 인식하지 못한 채 ‘편리한 안정’에 익숙해진다.

더 큰 문제는 시스템이 일상 속 다양한 기관과 결합하면서 발생한다. 치안 시스템이었던 아르고의 점수는 교육 기관의 상담 우선순위, 복지 지원 대상 선정, 심지어 임대 계약 심사에까지 참고 자료로 활용되기 시작한다. 정부는 “서로 다른 정책 영역에서 데이터의 효율적 활용”이라고 포장하지만, 실제로는 한 번의 점수 상승이 삶의 다양한 기회를 동시에 좁힐 수 있는 구조가 된다. 영화는 이 과정을 통해 데이터 기반 통제가 단일 정책으로 끝나지 않고 사회 전반의 구조로 확장될 수 있음을 보여준다.

노머시 AI 예측수사의 정확성 신화와 알고리즘의 맹점

영화의 중심 갈등은 대학원생 지민 사건을 통해 본격화된다. 그는 범죄 심리학 연구를 위해 다수의 강력 사건 자료를 검색했고, 사회 비판적 글을 SNS에 게시했다. 동시에 불면증으로 인해 새벽 시간대 활동이 많았다. 이러한 데이터는 아르고에 의해 위험 패턴으로 분류된다. 그의 점수는 93점까지 상승하고, 사전 경고 및 이동 제한 조치가 내려진다. 지민은 실제 범죄를 계획한 적이 없지만, 데이터는 맥락을 설명하지 않는다. AI는 상관관계를 계산할 뿐 인과관계를 이해하지 못한다. 태윤은 지민과의 면담을 통해 그가 단지 학문적 호기심과 개인적 우울감 속에서 방황하고 있었음을 확인한다.

지민은 자신이 왜 고위험군이 되었는지 알고 싶어 한다. 그는 “내가 뭘 했길래 93점이냐”고 묻지만, 돌아오는 대답은 “시스템이 그렇게 판단했다”는 말뿐이다. 이 장면은 알고리즘이 개인의 삶을 좌우할 수 있음에도, 개인이 그 판단 과정을 이해하거나 항의할 수 없는 현실을 드러낸다. 영화는 이를 ‘설명 불가능성’의 공포로 표현한다. 과거에는 억울한 일이 생기면 담당자에게 따지고, 조사 과정의 오류를 지적할 수 있었지만, 이제는 블랙박스 모델이 내린 확률값이 곧 결론이 된다.

문제는 시스템의 설명 불가능성이다. 아르고는 수십억 개의 파라미터를 가진 딥러닝 모델로, 왜 특정 점수가 산출되었는지 명확히 설명할 수 없다. 국회 청문회에서 “왜 93점인가”라는 질문이 제기되지만, 개발사는 “통계적 확률에 따른 결과”라는 원론적 답변만 내놓는다. 청문회장은 기술 용어와 책임 회피가 뒤섞인 공간으로 변하고, 피해 당사자의 목소리는 점점 배경으로 밀려난다. 영화는 통계적 언어가 현실의 고통을 덮어버리는 모습을 강조하며, ‘정확도’라는 숫자가 윤리적 정당성을 대체하는 위험을 경고한다.

책임 소재 역시 불분명하다. 정부는 정책적 판단을 했을 뿐이라고 말하고, 개발사는 데이터 제공 기관을 지목하며, 플랫폼 기업은 이용자 동의를 근거로 책임을 회피한다. 피해자는 존재하지만 책임 주체는 모호하다. 지민의 사례가 언론에 알려지자 사람들은 분노하지만, 분노는 곧 무력감으로 바뀐다. 누구에게 항의해야 하는지 알 수 없기 때문이다. 영화는 ‘책임의 분산’이 기술 사회에서 얼마나 치명적인 문제인지 보여준다.

태윤은 내부 로그를 추적하다가 특정 사회경제적 변수, 가정 환경, 학력 정보가 위험 점수에 반복적으로 반영된다는 사실을 발견한다. 이는 과거 범죄 데이터의 편향이 그대로 학습된 결과다. AI는 중립적 존재가 아니다. 학습 데이터가 가진 구조적 한계를 그대로 증폭한다. 태윤은 특히 저소득 지역 거주자들이 동일한 행동을 하더라도 더 높은 위험 점수를 받는 경향을 확인한다. 예를 들어 같은 시간대 이동, 같은 검색 기록이라도 지역 변수가 다르게 작동해 결과가 달라지는 것이다.

영화는 정확도가 90%를 넘더라도 10%의 오차가 개인에게는 치명적일 수 있음을 강조한다. 통계적 성공이 윤리적 정당성을 보장하지 않는다는 메시지가 반복적으로 제시된다. 예측수사는 범죄를 줄일 수 있지만, 동시에 자유를 제약할 위험을 내포한다. 더 나아가 ‘범죄를 줄이기 위해 불확실한 사람을 먼저 통제한다’는 사고방식이 사회 전체에 퍼질 때, 인간의 존엄성과 권리 개념이 어떻게 변질될 수 있는지 보여준다.

태윤은 지민의 사건을 계기로 “만약 내가 오늘 85점이 된다면, 내 삶도 한순간에 제한되는가?”라는 질문을 품는다. 영화는 이 질문을 통해 관객의 시점을 개인 문제에서 사회 구조 문제로 확장시킨다. 누구나 점수 체계의 대상이 될 수 있는 사회에서, 시민은 언제든 ‘잠재적 위험’으로 분류될 수 있다는 불안 속에 살아간다.

통제사회로 향하는 2026년과 인간의 최종 선택

영화 후반부에서 도시는 완전한 스마트 치안 체제로 전환된다. 안면 인식 카메라와 드론, 실시간 행동 분석 시스템이 통합 운영되며 범죄는 현저히 감소한다. 다수 시민은 시스템을 지지한다. “억울한 소수보다 안전한 다수가 중요하다”는 여론이 형성된다. 이때 영화는 대중 심리를 섬세하게 그린다. 사람들은 불편한 진실을 외면한다. 어제까지 불안했던 골목이 안전해졌고, 범죄 뉴스가 줄었으며, 아이들의 귀가길이 평온해졌기 때문이다.

그러나 태윤은 질문을 던진다. 범죄가 줄어든 사회가 곧 정의로운 사회인가? 가능성을 이유로 통제되는 사회에서 자유는 어떻게 보장되는가? 그는 내부 자료를 확보해 아르고의 편향 사례와 오판 통계를 공개하기로 결심한다. 태윤은 자신의 선택이 치안 시스템의 붕괴를 가져올 수도 있음을 알고 있다. 하지만 그가 더 두려워하는 것은 ‘침묵이 정상’이 되는 사회다.

정부는 사회적 혼란을 우려해 발표를 막으려 한다. 범죄율이 다시 상승하면 그 책임이 누구에게 돌아갈지 불분명하다는 이유다. 또한 시스템을 중단할 경우 치안 공백이 생기고, 국민 불안이 커질 것이라는 논리를 내세운다. 이는 “안전을 위한 통제”라는 명분이 얼마나 강력한지 보여주는 장면이다. 영화는 이 논리가 시민들의 동의를 쉽게 얻는 과정을 묘사하며, 자유의 축소가 급격한 폭력으로 일어나지 않고 ‘합리적 이유’라는 포장 속에서 서서히 진행될 수 있음을 강조한다.

태윤은 결국 생중계 방송을 통해 데이터를 공개한다. 그는 “AI는 자비도, 악의도 없다. 그러나 우리가 입력한 데이터 위에서 판단한다”고 말하며, 특정 계층과 지역이 구조적으로 높은 점수를 받는 사례, 오판으로 삶이 무너진 사람들의 통계, 그리고 점수 체계가 사회 전반으로 확장되는 과정의 내부 문서를 공개한다. 방송은 큰 파장을 일으킨다. 일부 시민은 충격을 받으며 시스템 폐지를 요구하고, 일부는 “그래도 안전이 우선”이라며 태윤을 비난한다. 도시는 즉시 두 개의 가치로 분열된다.

영화는 시스템의 전면 폐지가 아닌 사회적 재설계를 암시하며 마무리된다. 독립적 감시 기구 설립, 알고리즘 투명성 강화, 시민 참여형 데이터 검증 체계, 이의 신청 절차 마련, 고위험군 판정의 법적 기준 재정립 등이 공론화된다. 기술은 멈추지 않지만, 통제 장치를 강화하는 방향으로 논의가 이동한다. 이는 ‘기술을 없애는 것’이 아니라 ‘기술을 어떻게 다룰 것인가’가 핵심이라는 메시지로 연결된다.

‘노머시’는 자비 없는 알고리즘이 아니라, 기술을 맹신하는 인간의 태도를 경고한다. 2026년 AI 트렌드 속에서 범죄 예방 기술은 현실적 가능성을 가진 영역이다. 그러나 영화는 기술 발전이 자동으로 정의를 보장하지 않음을 분명히 한다. 안전을 위해 무엇을 포기할지, 그리고 그 포기가 누구에게 집중될지, 그 결정은 결국 인간 사회의 몫이다.

영화의 마지막 장면에서 태윤은 조용히 독백한다. “우리는 범죄를 막았다고 생각했지만, 어쩌면 범죄보다 더 무서운 것을 만들었는지도 모른다.” 이 문장은 관객에게 질문을 남긴다. 데이터가 삶을 설명하는 시대, 인간은 더 나은 사회를 만들 수 있을까, 아니면 더 완벽한 통제 장치를 스스로 구축하게 될까.

‘노머시’는 대체 데이터와 AI 범죄판단이라는 2026년 핵심 기술 이슈를 중심으로, 예측수사의 가능성과 위험을 균형 있게 조명한다. 범죄 예방이라는 명분과 개인의 자유라는 가치 사이에서 우리가 어떤 기준을 세워야 하는지 묻는다. AI 시대를 살아가는 지금, 기술의 효율성을 수용하되 투명성과 윤리적 통제를 병행하는 사회적 합의가 필요하다.