챗GPT '지브리' 열풍 속 의문…"내 사진은 어디로 가나"



최근 소셜미디어를 뜨겁게 달구고 있는 현상이 있습니다. 바로 '지브리 스타일 이미지 생성기'입니다. 많은 이용자들이 자신이나 반려동물의 사진을 인공지능에 업로드하고, 마치 스튜디오 지브리 애니메이션의 주인공이 된 듯한 이미지를 즐겁게 공유하고 있습니다. 일부는 유료 애플리케이션이나, 또 다른 일부는 챗GPT와 같은 생성형 AI를 통해 이 독특한 경험을 즐기고 있습니다. (관련 기사 보기= 챗GPT, 일주일 만에 7억 장 이상 이미지 생성… 인기 역대급)
그러나 이러한 즐거운 경험의 이면에는 우리가 진지하게 고민해봐야 할 질문이 있습니다. "내 사진은 어디로 갔을까?" 그리고 더 나아가 "이 사진은 앞으로 어떤 방식으로 활용될 수 있을까?" 라는 문제입니다.
개인 사진, 서버에 '업로드'되는 순간
챗GPT 뿐만 아니라 대부분의 AI 기반 이미지 생성 서비스는 "사진을 업로드하세요"라는 단순한 안내와 함께 사용자의 얼굴, 표정, 포즈가 담긴 이미지를 요구합니다. 이 데이터는 일시적으로 메모리에 저장되는 것이 아니라, 대부분 클라우드 서버로 전송되며, 이후 AI 모델이 이를 바탕으로 스타일 변환을 진행합니다.
여기서 주목해야 할 점은 이 '서버 업로드'가 단순한 전송이 아닌, 데이터 수집의 시작점이 될 수 있다는 사실입니다. 사용자들은 자신의 얼굴이 담긴 사진이 어떻게 저장되고, 어떤 목적으로 활용될지에 대한 고려 없이 서비스를 이용하는 경우가 많습니다.
오픈AI는 이 사진을 학습에 활용할 수 있을까?
ChatGPT를 운영하는 오픈AI(OpenAI)의 데이터 정책을 자세히 살펴보면, 사용자 유형에 따라 처리 방식이 달라집니다.
무료 사용자의 경우, 입력한 텍스트나 이미지는 기본적으로 모델 학습에 활용될 수 있습니다. 이는 서비스를 무료로 제공하는 대신, 사용자 데이터를 통해 AI 모델을 개선하는 비즈니스 모델의 일환입니다.
반면 유료 사용자(ChatGPT Plus, Team 등)는 2024년 현재 기준으로, 기본 설정에서는 학습에 사용되지 않습니다. 그러나 사용자가 별도로 설정을 변경하거나 API를 통해 업로드하는 경우에는 예외가 발생할 수 있어 주의가 필요합니다.
즉, 단순히 개인이 유료 계정으로 이미지를 올렸다고 해서 해당 이미지가 모델 학습에 자동으로 활용되지는 않습니다. 그러나 개인 정보 보호를 위한 기능 설정 여부가 핵심이며, 사용자가 이를 명확히 인식하지 못하고 동의 절차를 지나친 경우, 데이터가 학습에 포함될 가능성은 여전히 존재합니다.
한 번 학습된 이미지, 다시 나에게 '돌아올 수 있다'
이미지를 AI 모델이 학습하게 되면, 그 데이터는 일종의 스타일 정보 또는 패턴으로 녹아듭니다. 그러나 이 과정에서 몇 가지 위험성이 도사리고 있습니다.
내가 업로드한 고유한 얼굴 구조나 배경, 의상 스타일이 다른 사람의 결과물에 유사하게 반영될 수 있습니다. 특히 특정 유명인의 이미지가 과도하게 학습된 경우, 결과물에서 그 유명인의 얼굴이 연상되는 문제가 이미 여러 차례 보고된 바 있습니다.
이는 생성형 AI가 특정 사용자 데이터에 '오버핏(과적합)’되었을 때 발생하는 문제입니다. 특히 학습 데이터에 소수의 이미지가 포함된 경우, AI가 이를 '창작'이 아닌 '복제'에 가깝게 재현하는 사례도 있었습니다. 결국 내가 올린 사진의 특징이 다른 사용자의 결과물에 의도치 않게 영향을 미칠 수 있는 것입니다.
사용자 데이터의 '경로'와 잠재적 문제
AI 이미지 생성에 사용되는 사진의 일반적인 흐름은 다음과 같은 단계를 거칩니다. 모든 AI 플랫폼이 반드시 동일한 절차를 거치지는 않더라도 비슷한 단계를 거쳐 서비스 됩니다.
첫째, 사용자 업로드 과정에서 개인의 사진이 서비스로 전송됩니다. 둘째, 서버 저장 및 전처리 단계에서 이미지가 AI 모델이 처리할 수 있는 형태로 변환됩니다. 셋째, 모델 입력 및 스타일 변환을 통해 AI가 이미지를 분석하고 지정된 스타일로 변환합니다. 넷째, 결과 이미지 생성으로 사용자에게 최종 결과물이 제공됩니다.
여기서 가장 논란이 되는 부분은 다음 다섯 번째 단계인 임시 데이터 보존 / 학습에 활용 / 피드백 저장입니다. 특히 무료 플랫폼이나 베타 서비스는 '사용자 데이터를 서비스 개선 목적에 활용할 수 있다'는 조항을 약관에 포함시키는 경우가 많습니다. 문제는 대부분의 사용자가 이러한 약관을 제대로 읽지 않고 동의한다는 점입니다.
TIP ¦ 내가 올린 이미지, AI가 학습하지 않게 하려면?
챗GPT 플러스 사용자라면 '모두를 위한 모델 개선' 설정을 비활성화하는 것이 중요합니다.(팀 플랜은 기본 설정이 비활성화 되어 있음) 그리고 이미지 생성 플랫폼 사용 시, 반드시 약관 및 개인정보 보호정책을 꼼꼼히 확인해야 합니다.
특히, 생성된 이미지가 지나치게 실제 사진과 유사하거나 고유 식별이 가능한 경우, 서비스 제공자에게 삭제 요청 권리를 행사할 수 있음을 기억하시기 바랍니다.
기술의 발전, 그리고 신뢰의 조건
지브리 스타일 이미지 생성의 폭발적 인기는, 기술이 얼마나 매력적인 경험을 제공할 수 있는지를 잘 보여줍니다. 그러나 그 이면에 있는 데이터 처리의 투명성, 사용자 동의의 실질성, 모델 학습의 윤리성은 이제 모든 생성형 AI 기업이 진지하게 고민해야 할 주제가 되었습니다.
우리는 앞으로도 계속해서 더욱 고도화된 AI와 함께 살아가야 합니다. 그만큼, 나의 사진이 어떻게 활용되고 있는지를 비판적으로 바라보는 시각 또한, 기술의 진보만큼 성숙해질 필요가 있습니다.
■ 이 기사는 AI 전문 매체 ‘AI 매터스’와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)