- ChatGPT를 사용하면 대화 내용, 위치, 기기 정보, 계정 정보 등 다양한 데이터가 저장됩니다. 하지만 이 데이터는 사용자의 동의 없이 판매되거나 타인과 공유되지 않습니다.
- OpenAI는 사용자가 개인정보 보호 포털에서 거부하지 않는 한, 대화 내용을 향후 AI 모델 학습에 활용할 수 있습니다. 이 포털에서는 데이터 삭제나 계정 삭제도 할 수 있습니다.
- 최대한 프라이버시를 지키고 싶다면, ChatGPT에 민감하거나 기밀인 정보를 입력하지 마세요. 시스템 개선을 위해 직원이 대화 내용을 검토할 수 있기 때문입니다.
ChatGPT 사용 시 데이터 프라이버시가 궁금하다면, 잘 찾아오셨습니다. 사용하는 소프트웨어의 데이터 프라이버시를 확인하는 것은 언제나 현명한 선택입니다. 특히 개인정보가 포함될 때는 더욱 그렇죠.
이 글에서는 다음 내용을 설명합니다:
- ChatGPT 사용 시 OpenAI가 저장하는 데이터 종류
- OpenAI가 데이터를 활용하는 방법
- OpenAI 모델 학습에 내 데이터를 사용하지 않도록 설정하는 방법
- ChatGPT 데이터를 삭제하는 방법
- OpenAI의 과거 데이터 유출 사례
ChatGPT 프라이버시 점검을 시작할 준비가 되셨나요? 시작해봅시다.
ChatGPT가 내 데이터를 저장하나요?
네, ChatGPT는 사용자가 입력한 모든 프롬프트, 질문, 요청 등 다양한 데이터를 저장합니다.
다른 SaaS 서비스와 마찬가지로, ChatGPT는 기기 정보, 사용 정보, 로그 데이터, 계정 정보, 사용자 콘텐츠 등 다양한 사용자 데이터를 저장합니다.
즉, ChatGPT는 프롬프트뿐 아니라 위치 정보, 사용 중인 기기 종류 등도 저장합니다.
OpenAI가 수집할 수 있는 정보는 다음과 같습니다:
- ChatGPT에 입력한 모든 텍스트(예: 프롬프트, 질문)
- 위치 정보
- 상업적 정보(예: 거래 내역)
- 연락처 정보
- 기기 및 브라우저 쿠키
- 로그 데이터(예: IP 주소)
- 계정 정보(예: 이름, 이메일, 연락처 등)
ChatGPT가 데이터를 판매하나요?
아니요, ChatGPT는 데이터를 판매하지 않습니다. 사용자의 동의 없이 제3자와 데이터를 공유하지 않으며, 수집된 데이터는 챗봇 성능 개선과 더 나은 사용자 경험 제공에만 사용됩니다.
ChatGPT는 내 데이터를 어떻게 활용하나요?
OpenAI는 사용자 데이터를 GPT-5와 같은 대형 언어 모델(LLM) 학습에 활용합니다.
직원이 반드시 데이터를 직접 보는 것은 아니지만, OpenAI의 AI 트레이너가 모델 학습을 위해 ChatGPT 대화 내용을 사용할 수 있습니다.
OpenAI가 데이터를 사용하지 않는 용도:
- 마케팅: OpenAI는 ChatGPT 사용자 대화가 마케팅 목적으로 사용되지 않는다고 명확히 밝혔습니다.
- 수익: OpenAI는 사용자의 동의 없이 데이터를 제3자에게 판매하지 않습니다.
학습 데이터 사용 거부(옵트아웃) 방법
ChatGPT는 모델 학습을 위해 정보를 사용할 수 있지만, 사용자는 이를 거부할 수 있습니다. OpenAI의 개인정보 보호 포털에서 학습 거부 요청을 제출할 수 있습니다.
Enterprise ChatGPT 계정의 경우, 기본적으로 입력한 데이터가 학습에 사용되지 않습니다.
OpenAI 개인정보 보호 포털
OpenAI가 보유한 데이터가 궁금하거나 데이터 프라이버시 설정을 변경하고 싶다면, 개인정보 보호 포털을 이용할 수 있습니다. 여기서 다음을 할 수 있습니다:
- 내 데이터 사본 요청
- OpenAI에 내 데이터로 모델을 학습하지 않도록 요청
- ChatGPT 계정 및 관련 데이터 전체 삭제
- ChatGPT 모델 결과에서 내 개인정보 삭제 요청
요청을 제출했다면, 개인정보 보호 포털에 로그인해 처리 상태를 확인할 수 있습니다.
ChatGPT는 내 데이터를 어디에 저장하나요?
OpenAI는 미국 내의 보안 서버에 사용자 정보를 저장합니다.
서버의 정확한 위치는 공개되지 않았습니다.
ChatGPT가 지식 베이스에 저장된 데이터를 볼 수 있나요?
OpenAI가 지식 베이스에 저장된 정보를 접근할 수 있는지는 어떤 플랫폼에서 챗봇을 커스터마이즈하는지에 따라 다릅니다.
AI 챗봇에 사용되는 대부분의 LLM은 사용자의 프롬프트에 정확한 정보를 제공하기 위해 연결된 지식 베이스에 접근해야 합니다.
ChatGPT 데이터는 어떻게 삭제하나요?
ChatGPT에 저장된 데이터는 계정 삭제를 통해 삭제할 수 있습니다. OpenAI는 30일 이내에 모든 데이터를 삭제합니다.
단, 새 계정을 만들려면 새로운 이메일 주소가 필요합니다. 계정을 삭제한 뒤 같은 이메일로 다시 가입할 수 없습니다.
계정 없이도 ChatGPT를 사용할 수 있지만, 한 번에 한 대화만 지원됩니다.
ChatGPT는 데이터를 어디서 얻나요?
ChatGPT는 라이선스가 있는 데이터, 공개 데이터, 인간 트레이너가 만든 데이터 등 다양한 정보를 기반으로 학습되었습니다.
OpenAI AI 트레이너가 사용한 개별 데이터셋은 공개되지 않았지만, 인터넷에 공개된 광범위한 정보가 포함되어 있습니다.
ChatGPT는 비밀이 보장되나요?
OpenAI 직원은 오직 모델 학습 목적으로만 데이터를 사용합니다. 하지만 특정 데이터를 ChatGPT에 입력하는 것이 꺼려진다면, 입력하지 않는 것이 가장 안전합니다.
삼성 직원 몇 명이 오류를 확인하기 위해 소스 코드를 ChatGPT에 공유했다가, 이로 인해 사내 정보가 유출되어 삼성은 업무 환경에서 ChatGPT 사용을 금지하게 되었습니다.
이 사건 이후 OpenAI는 개인정보 보호 기능을 강화하여 사용자가 개인정보를 공유하지 않도록 더 많은 보안 기능을 도입했습니다. 그러나 여전히 많은 기업이 직원이 ChatGPT에 데이터를 공유하는 것을 금지하고 있습니다.
ChatGPT에서 데이터 유출이 있었나요?
네, 2024년 3월 20일 ChatGPT에서 데이터 유출 사고가 있었습니다. 오픈소스 라이브러리의 버그로 인해 서비스가 일시 중단되었습니다.
이 버그로 일부 사용자의 대화 기록 제목이 노출됐으며, 더 큰 문제는 약 9시간 동안 활동한 ChatGPT Plus 구독자의 결제 정보가 노출됐을 수 있다는 점입니다(전체 Plus 사용자 중 약 1.2%).
신용카드 번호 전체는 유출되지 않았으나, 다음 정보가 노출되었습니다:
- 이름과 성
- 이메일 주소
- 결제 주소
- 신용카드 종류
- 신용카드 마지막 4자리
- 신용카드 만료일
OpenAI는 실제로 데이터가 노출된 사용자는 매우 적다고 밝혔으며, 해당 정보에 접근하려면 특이한 절차가 필요했습니다.
OpenAI의 버그 전체 보고서는 여기에서 확인할 수 있습니다.
LLM을 안전하게 사용하는 방법
LLM의 기능을 활용하고 싶다면, 직접 AI 챗봇을 커스터마이즈할 수 있습니다.
LLM 기반 챗봇은 정보가 클라우드로 전송되거나 제3자에게 유출되는 것을 방지하는 안전장치를 제공합니다.
저희 챗봇 플랫폼은 엔터프라이즈급 보안을 제공합니다. 전 세계 주요 기업들이 안전하고 브랜드에 맞는 챗봇과 AI 에이전트 배포에 사용하고 있습니다.
지금 바로 시작해보세요. 무료입니다.
자주 묻는 질문
1. 국제 개인정보 보호법(GDPR, CCPA 등)에서 내 데이터는 어떻게 보호되나요?
GDPR, CCPA 등 국제 개인정보 보호법에 따라, 사용자는 개인정보에 대한 접근, 삭제, 사용 제한 권리를 가집니다. OpenAI는 개인정보 보호 포털을 통해 이러한 권리를 직접 관리할 수 있도록 하며, 개인정보 처리방침에서 데이터 처리 방식을 안내합니다.
2. 어떤 기준으로 사용자 데이터가 학습에 사용되거나 폐기되나요?
ChatGPT의 사용자 데이터는 사용자가 동의한 경우(무료 이용자는 기본적으로 동의)만 학습에 사용되며, 품질과 안전성 기준에 따라 선별됩니다. ChatGPT Enterprise를 이용할 경우, 대화 내용은 학습에 전혀 사용되지 않습니다.
3. 브라우저 추적 없이 완전히 익명으로 ChatGPT를 사용할 수 있나요?
ChatGPT는 완전히 익명으로 사용할 수 없습니다. 로그인하지 않아도 IP 주소, 브라우저 종류, 기기 정보 등 최소한의 기술적 메타데이터가 수집되므로, 완전한 익명성(추적 없음)은 현재 불가능합니다.
4. 비즈니스 환경에서 ChatGPT를 안전하게 사용하려면 어떻게 해야 하나요?
비즈니스 환경에서 ChatGPT를 안전하게 사용하려면, 민감하거나 독점적인 데이터를 입력하지 않고, 데이터 관리가 강화된 ChatGPT Enterprise 또는 Team 요금제를 사용하며, 가능하다면 내부 방화벽 뒤에서 통합해 사용하는 것이 좋습니다. 보안이 보장된 요금제가 아니라면 입력한 데이터가 노출될 수 있다고 생각해야 합니다.
5. 극도로 민감한 데이터 사용에 더 안전한 ChatGPT 대안이 있나요?
네, 극도로 민감한 데이터에는 LLaMA 2, Mistral과 같은 오픈소스 LLM을 직접 배포해 데이터 저장 및 처리를 완전히 통제할 수 있습니다. 또는 온프레미스나 VPC 배포 옵션이 있는 상용 LLM 서비스를 이용해 더 엄격한 규정을 적용할 수도 있습니다.





.webp)
