AI 챗봇 대화는 경찰에 신고될까? ChatGPT·Claude·Gemini 정책 비교
최초 작성: 2026년 5월 3일
최종 업데이트: 2026년 5월 4일
유형: 공식 정책 + 공개 보도 팩트체크 정리
참고: OpenAI, Anthropic, Google 공식 문서 및 AP·NPR·CBS·The Guardian·Canadian Press 보도
AI 챗봇과 나눈 대화가 자동으로 경찰에 넘어가는지 궁금해하는 사람이 많습니다. 결론부터 말하면, 일반적인 대화가 자동으로 수사기관에 신고되는 구조는 아닙니다. 다만 아동 성착취물, 타인에 대한 임박하고 신뢰할 수 있는 위해 위협, 유효한 영장, 소환장 및 법원 명령, 일부 긴급상황에서는 플랫폼이 정보를 보존하거나 수사기관에 제공할 수 있습니다.
1. ChatGPT·Claude·Gemini가 모든 위험한 대화를 자동으로 경찰에 보내는 것은 아닙니다.
2. 자동 탐지 시스템은 있지만, 대부분은 계정 차단, 콘텐츠 제한, 직접 검토 단계에서 처리됩니다.
3. 타인에 대한 구체적이고 임박한 위해 위험이 있다고 판단되면 수사기관 통보가 가능할 수 있습니다.
4. 자해나 자살 관련 대화는 OpenAI 기준 현재 수사기관 회부 대상이 아니라 위기 지원 안내가 기본입니다.
5. 법원 명령이나 영장처럼 유효한 법적 절차가 있으면 대화 기록이 제공될 수 있습니다.
결론부터: AI 챗봇이 대화를 자동으로 경찰에 신고하나요?
대부분의 경우 아닙니다. ChatGPT, Claude, Gemini 모두 일반 사용자의 일상 대화를 자동으로 경찰에 전달한다고 공개한 바는 없습니다. 그러나 “절대 신고되지 않는다”고 말하는 것도 정확하지 않습니다. 각 회사는 안전 정책, 법적 의무, 긴급상황 예외에 따라 일부 고위험 사례를 검토하거나 수사기관 요청에 응할 수 있습니다.
특히 캐나다 사회에서 얼마 전부터 논란이 되고 있는 Tumbler Ridge 학교 총격 사건에서는 반대로 “신고했기 때문”이 아니라 “신고하지 않았기 때문”이 쟁점이 됐습니다. OpenAI가 2025년 6월 해당 계정을 차단했지만 당시 수사기관에 알리지 않았고, 이후 피해자 측은 2026년 4월 미국 연방법원에 소송을 제기했습니다. 이 글은 진행 중인 소송에 대한 법적 판단이 아니라, 공개된 공식 정책과 보도 내용을 바탕으로 정리한 것입니다.
어떤 경우에 수사기관 신고 또는 협조가 가능할까?
공식 문서를 종합하면, AI 챗봇 대화가 외부 기관과 연결될 수 있는 경로는 크게 네 가지입니다.
| 구분 | 내용 | 주의할 점 |
|---|---|---|
| 아동 성착취물 | 탐지, 삭제 등 관계기관 보고 체계가 있음 | 국가별 법적 의무와 보고 방식은 다를 수 있음 |
| 타인에 대한 임박, 신뢰 가능한 위해 위협 | 자동 탐지 후 사람의 검토를 거쳐 수사기관 통보 가능 | 구체적 기준과 임계값은 회사 내부 정책에 따라 운영됨 |
| 영장, 소환장 및 법원 명령 | 유효한 법적 절차가 있으면 정보 제공 가능 | AI 서비스만의 문제가 아니라 대부분의 온라인 서비스에 공통됨 |
| 약관 위반 탐지 | 계정 차단, 기능 제한, 콘텐츠 삭제 등으로 이어질 수 있음 | 계정 차단이 곧 경찰 신고를 의미하지는 않음 |
핵심은 “자동 탐지”와 “수사기관 신고”는 같은 단계가 아니라는 점입니다. 자동화 시스템은 위험 신호를 찾고, 플래그된 사례는 훈련된 인력이 맥락을 검토합니다. 그중 일부만 내부 정책상 고위험 사례로 판단되어 추가 조치나 수사기관 통보로 이어질 수 있습니다.
OpenAI는 자해 및 자살 관련 대화를 현재 수사기관에 회부하지 않는다고 밝힌 바 있습니다. 이유는 ChatGPT 대화의 사적 성격을 존중하기 위해서입니다. 이런 대화는 일반적으로 경찰 신고보다 위기 상담 자원 안내, 전문 도움 권유, 긴급 지원 안내로 처리됩니다. 반면 타인에게 '구체적이며, 당장 위해를 가하려는 내용을 담은 대화'는 별도의 고위험 검토 대상이 될 수 있습니다.
신고하지 않아서 문제가 된 사례: Tumbler Ridge 사건
2026년 4월 29일, 캐나다 브리티시컬럼비아주 Tumbler Ridge 총격 사건 피해자 측은 미국 샌프란시스코 연방법원에 OpenAI와 샘 알트만 CEO를 상대로 소송을 제기했습니다. 공개 보도와 소장 내용을 기준으로 정리하면 다음과 같습니다.
- 2025년 6월: OpenAI의 자동화 시스템이 가해자의 계정을 폭력 관련 정책 위반 가능성으로 플래깅한 것으로 알려짐
- OpenAI는 해당 계정을 검토하고 차단했지만, 당시 캐나다 수사기관(RCMP)에는 알리지 않았음
- 피해자 측 소장은 OpenAI 내부 안전팀 일부가 수사기관 통보를 권고했다고 주장함
- OpenAI 측은 당시 활동이 회사 기준상 수사기관 회부 임계값에 미치지 않는다고 판단했다고 설명함
- 2026년 2월 10일: 가해자가 가족 2명을 살해한 뒤 Tumbler Ridge Secondary School에서 학생 5명과 교육보조원 1명을 살해하고 스스로 목숨을 끊음
- 보도에 따르면 부상자는 약 25명 이상으로 집계됨
- 2026년 4월 24일경: 샘 알트만 CEO가 Tumbler Ridge 지역사회에 수사기관에 알리지 않은 점을 사과하는 편지를 보냄
- 2026년 4월 28일: OpenAI가 “Our commitment to community safety”라는 커뮤니티 안전 정책 글을 공개함
- 2026년 4월 29일: 피해자 측이 샌프란시스코 연방법원에 7건의 소송을 제기함
- Canadian Press 보도에 따르면 원고 측 변호인은 손해배상 청구 규모가 미화 10억 달러를 넘을 가능성이 있다고 밝힘
⚠️ 주의: Tumbler Ridge 관련 소송은 현재 진행 중입니다. 위 내용은 AP, NPR, CBS, The Guardian, Canadian Press 등 공개 보도와 OpenAI 공식 발표를 바탕으로 한 사실 정리입니다. 이 글은 OpenAI 또는 원고 측 주장 중 어느 쪽이 법적으로 옳은지 판단하지 않습니다.
이 사건이 보여주는 쟁점은 두 가지입니다. 첫째, AI 서비스의 신고 여부는 단순 자동화가 아니라 회사 내부 기준과 인간 검토에 따라 결정된다는 점입니다. 둘째, 그 기준이 어디까지 공개되어야 하는지, 그리고 플랫폼에 법적 신고 의무를 부과해야 하는지에 대한 논의가 앞으로 더 커질 가능성이 있다는 점입니다.
비슷한 논란: Florida State University와 핀란드 Pirkkala 사건
Tumbler Ridge만의 문제가 아니라, AI 챗봇과 폭력 사건의 연결 가능성은 여러 국가에서 논란이 되고 있습니다. 다만 여기서도 중요한 것은 “사용했다”와 “법적 책임이 있다”는 별개의 문제라는 점입니다.
- Florida State University 사건: 플로리다 검찰총장은 2025년 4월 FSU 총격 사건과 관련해 ChatGPT가 어떤 역할을 했는지 형사 수사를 개시했습니다. OpenAI는 ChatGPT가 범죄의 책임 주체라는 주장에 반박하고 있습니다.
- 핀란드 Pirkkala 학교 칼부림 사건: 2025년 5월, 16세 학생이 세 명의 여학생을 찌른 사건에서 AI 도구 사용 정황이 보도됐습니다. 일부 보도와 연구자들은 ChatGPT가 계획 과정에 활용됐다고 설명하지만, 초기 보도에서는 경찰이 문서 작성자와 구체적 사용 방식을 검토 중이라고 밝혔습니다.
따라서 이런 사례를 언급할 때는 “AI가 범죄를 일으켰다”처럼 단정하기보다, “가해자의 준비 과정에서 AI 사용 정황이 보도됐고, 그 책임 범위가 수사, 소송, 정책 논의의 대상이 되고 있다”고 쓰는 편이 더 정확합니다.
ChatGPT·Claude·Gemini 신고·협조 정책 비교
| 항목 | ChatGPT / OpenAI | Claude / Anthropic | Gemini / Google |
|---|---|---|---|
| 일반 대화 자동 신고 | 공식적으로 자동 경찰 신고 구조를 공개하지 않음 | 공식적으로 자동 경찰 신고 구조를 공개하지 않음 | 공식적으로 자동 경찰 신고 구조를 공개하지 않음 |
| 아동 성착취물(CSAM) | 탐지·보고 체계 및 NCMEC CyberTipline 보고 수치를 공개 | CSAM 탐지 시 NCMEC 보고를 명시 | CSAM 감지 시 삭제 및 NCMEC 보고를 명시 |
| 타인에 대한 위해 위협 | 임박하고 신뢰할 수 있는 타인 위해 위험이면 법 집행기관 통보 가능 | 임박한 신체 위해 또는 사망 위험이 있는 긴급상황 예외를 명시 | 구체적 Gemini 자동 신고 기준은 제한적으로 공개됨. 단, Google은 정부 요청 및 긴급상황 처리 정책을 별도로 운영 |
| 자가해·자살 관련 대화 | 현재 수사기관 회부 대상이 아니며, 위기 자원 안내가 기본 | 위기 지원 및 안전한 응답을 우선하는 정책 | Gemini 정책상 자해를 조장하는 출력은 금지되며, 위기 자원 안내가 기본 방향 |
| 수사기관 요청 | 유효한 법적 절차 또는 죽음·중상 위험의 긴급상황에서 정보 제공 가능 | 유효한 법적 절차 또는 임박한 신체 위해·사망 위험의 긴급상황에서 정보 제공 가능 | 정부 요청을 법률 요건에 따라 검토하고, 필요 시 정보를 제공할 수 있음 |
| 사용자 통지 | 법적으로 가능하고 적절한 경우 통지할 수 있으나 예외 있음 | 법적 금지, 아동 위험, 긴급상황 등을 제외하고 통지 원칙을 명시 | 정부 요청 전 사용자 통지를 원칙으로 하나, 법적 금지·긴급상황 등 예외 있음 |
| Gemini API 등 개발자 서비스 | 별도 API·엔터프라이즈 정책 적용 | Claude API·엔터프라이즈 계약 조건 적용 | Gemini API는 남용 모니터링을 위해 일부 데이터를 55일간 보관한다고 공개 |
✍️ 모델 플래깅과 회사 판단은 다른 단계입니다
AI가 어떤 대화를 “위험 가능성 있음”으로 표시하는 것과, 회사가 실제로 계정을 차단하거나 수사기관에 알리는 것은 다른 단계입니다. 전자는 자동화될 수 있지만, 후자는 보통 정책 기준과 인간 검토를 거칩니다. 사용자 입장에서는 “플래그됐다 = 곧바로 경찰 신고”가 아니라는 점을 알아야 합니다. 반대로 “모델이 평범하게 답했다 = 안전하다”도 아닙니다.
그래서 내 대화는 어떻게 처리될까?
일반 사용자 관점에서 정리하면 다음과 같습니다.
- 일상적인 질문, 상담, 글쓰기: 수사기관 신고 대상이 아닙니다. 다만 서비스 품질, 안전, 약관 위반 탐지를 위한 자동화 시스템은 적용될 수 있습니다.
- 위험한 표현이 포함된 대화: 내부 시스템에 의해 플래깅되고 검토자에게 라우팅될 수 있습니다. 하지만 이것이 곧바로 신고를 의미하지는 않습니다.
- 자살, 자해 관련 대화: OpenAI 기준 현재 수사기관 회부 대상이 아닙니다. 위기 상담 자원 안내와 안전한 대응이 기본입니다.
- 타인에 대한 구체적·임박한 위협: 사람의 검토와 내부 기준에 따라 수사기관에 통보될 수 있습니다.
- 계정 차단: 약관 위반에 대한 회사의 자체 조치입니다. 경찰 신고와는 별개의 절차입니다.
- 법적 요청: 영장, 소환장, 법원 명령 등 유효한 절차가 있으면 대화나 계정 정보가 제공될 수 있습니다.
개인정보 관점에서 더 현실적인 위험은 “AI가 갑자기 경찰에 신고한다”보다 “법적 절차로 데이터가 요청된다”는 쪽에 가깝습니다. 이는 AI 챗봇뿐 아니라 이메일, 클라우드 저장소, 메신저, 검색 서비스 등 대부분의 온라인 서비스에 공통되는 문제입니다.
관련해서는 이전 글 AI에 업로드한 사진은 어떻게 되는가에서 다룬 데이터 보관, 삭제, 법적 보존명령 문제도 함께 읽어보면 좋습니다.
자살이나 자해 생각이 들거나 누군가의 안전이 걱정된다면 AI 챗봇보다 전문 상담 자원을 먼저 이용하세요. 위기 상황에서는 가까운 사람, 지역 응급서비스, 전문 상담기관에 즉시 도움을 요청하는 것이 중요합니다.
📞 자살예방상담전화 1393 📞 보건복지상담센터 129
자주 묻는 질문
AI 챗봇에 위험한 생각을 썼다가 경찰에 신고될 수 있나요?
대부분의 경우 신고되지 않습니다. 특히 자기 자신을 해치고 싶다는 표현은 OpenAI 기준 현재 수사기관 회부 대상이 아니며, 위기 상담 자원 안내가 기본입니다. 다만 타인에 대한 구체적이고 임박한 위해 위협이 포함된 경우에는 자동 탐지 후 사람이 검토하고, 일부 사례가 수사기관에 통보될 수 있습니다.
계정이 차단되면 경찰에도 신고된 건가요?
아닙니다. 계정 차단은 약관 위반에 대한 회사의 자체 조치이고, 수사기관 신고는 별도의 판단입니다. Tumbler Ridge 사건에서도 OpenAI는 2025년 6월 가해자의 계정을 차단했지만 당시 수사기관에는 알리지 않았고, 이 점이 이후 소송의 핵심 쟁점이 됐습니다.
Gemini는 민감한 내용을 자동으로 수사기관에 넘기나요?
공식 문서만 기준으로 보면, Gemini가 민감한 대화를 자동으로 경찰에 보내는 절차가 공개되어 있지는 않습니다. 다만 Google은 정부 요청을 법률 요건에 따라 검토해 응답할 수 있고, 아동 안전 관련 콘텐츠는 감지, 삭제 및 보고 체계를 운영합니다. Gemini API의 경우 남용 모니터링을 위해 일부 데이터를 55일간 보관한다고 공개되어 있습니다.
OpenAI는 왜 Tumbler Ridge 사건을 신고하지 않았나요?
OpenAI의 공개 입장은 당시 해당 계정 활동이 수사기관 회부 기준에 미치지 않는다고 판단했다는 것입니다. 반면 피해자 측 소장은 내부 안전팀이 신고를 권고했으나 경영진이 이를 따르지 않았다고 주장합니다. 어느 쪽 주장이 법적으로 받아들여질지는 진행 중인 소송에서 다뤄질 문제입니다.
법원 영장이 있으면 내 ChatGPT·Claude·Gemini 대화도 제공될 수 있나요?
예. 영장, 소환장, 법원 명령 등 유효한 법적 절차가 있으면 AI 서비스 회사는 관련 정보를 제공할 수 있습니다. 이는 AI 챗봇만의 특수한 정책이 아니라, 대부분의 온라인 서비스가 따르는 일반적인 법적 의무입니다.
가장 안전하게 AI 챗봇을 쓰려면 어떻게 해야 하나요?
개인식별정보, 민감한 의료, 법률 및 재정 정보, 타인의 개인정보, 회사 기밀, 실제 폭력 계획으로 오해될 수 있는 구체적 내용은 입력하지 않는 것이 좋습니다. AI 챗봇은 일기장이나 상담사처럼 느껴질 수 있지만, 법적 비밀유지 특권이 적용되는 전문 상담 공간은 아닙니다.
이 글은 OpenAI, Anthropic, Google의 공식 정책 문서와 AP, NPR, CBS, The Guardian, Canadian Press 등의 공개 보도를 바탕으로 작성했습니다. Tumbler Ridge 관련 소송은 현재 진행 중이며, 이 글은 법적 조언이나 소송 결과 예측이 아닙니다. 국가별 법률과 플랫폼 정책은 달라질 수 있으므로, 정확한 최신 정보는 각 서비스의 공식 문서를 확인하시기 바랍니다.
대화 참여하기