본문 바로가기
테크로만

Oversight Board, Meta의 AI 생성 성적 이미지 정책 개선 권고

by 오토로만 2024. 10. 10.
728x90
반응형

Meta(구 페이스북)의 준독립 감시 기구인 Oversight Board는 최근 AI로 생성된 성적 이미지에 대한 Meta의 정책을 개선할 것을 권고했습니다. 이 권고는 Meta가 AI를 통해 조작된 성적 이미지에 대해 더 명확하고 철저한 대응을 해야 한다는 요구에서 비롯되었습니다. 특히, Oversight Board는 Meta가 현행 '비하적'이라는 용어를 **'비동의'**로 변경하고, 해당 이미지를 다루는 정책을 기존의 '괴롭힘 및 괴롭힘' 섹션에서 '성적 착취 커뮤니티 기준' 섹션으로 옮길 것을 권장했습니다.

AI 생성 콘텐츠와 이를 관리하는 Meta의 책임

Meta의 AI 생성 성적 이미지 정책, 왜 문제가 될까?

현재 Meta의 정책은 '비하적 성적 포토샵' 규정을 기반으로 AI 생성 성적 이미지를 다루고 있습니다. 그러나 Oversight Board는 이와 같은 접근이 부족하다고 지적하며, Meta가 "포토샵"이라는 단어 대신 조작된 미디어를 가리키는 더 일반적인 용어로 변경해야 한다고 제안했습니다. 또한, Meta가 AI 이미지에 대한 대응에서 비상업적이거나 개인적인 설정에만 국한하지 않고, 비동의로 생성된 모든 이미지를 금지해야 한다고 주장했습니다.


두 가지 사례: 문제점이 드러난 이유

이번 권고는 두 가지 고프로파일 사례에서 촉발되었습니다.

  1. 인도의 유명 인사를 대상으로 한 AI 생성 성적 이미지가 인스타그램에 게시되었으나, Meta는 사용자의 신고를 48시간 내에 처리하지 않고 사건을 종결했습니다. 이후 Oversight Board가 사건을 다루며 콘텐츠가 삭제되고 계정이 차단되었습니다.
  2. 미국의 유명 인사와 유사한 AI 생성 이미지가 페이스북에 게시된 경우, Meta는 미디어 보도를 통해 이를 빠르게 확인하고 이미지를 제거했습니다. 그러나 인도의 사례는 미디어 보도 이후에만 처리되었으며, Oversight Board의 개입이 없었다면 더 늦게 대응되었을 가능성이 큽니다.

비동의 성적 이미지의 확산, 그 해결책은?

이 사건들은 AI로 생성된 성적 이미지가 얼마나 쉽게 확산될 수 있는지를 보여줍니다. Breakthrough Trust라는 인도 온라인 성폭력 반대 캠페인 단체는 비동의 이미지가 종종 신원 도용 문제로만 치부되며, 피해자들이 경찰서나 법원에서 2차 피해를 겪는다고 주장했습니다.

특히, 피해자들이 AI로 생성된 이미지를 신고할 때 **"왜 당신의 사진을 인터넷에 올렸냐"**는 2차 피해 질문을 받는 경우가 많습니다. 이는 Meta의 정책이 좀 더 문화적 감수성을 갖고 다뤄져야 한다는 것을 시사합니다.


Meta의 대응과 앞으로의 방향

Meta는 Oversight Board의 권고에 따라 관련 정책을 검토하겠다고 밝혔습니다. 그러나 정책의 근본적인 개선 없이 사용자 신고 시스템에만 의존한다면 문제는 계속될 가능성이 큽니다. 전문가들은 Meta가 사용자에게 더 많은 컨텍스트를 제공하고, 신고 시 다양한 규정 위반 카테고리를 모를 경우에도 쉽게 신고할 수 있는 시스템을 마련해야 한다고 조언합니다.


결론

AI로 생성된 성적 이미지와 관련된 Meta의 정책은 지금도 발전 중입니다. 하지만 Oversight Board의 권고에 따라 정책이 개선되고, 더 유연한 신고 시스템이 마련된다면, 이는 온라인 성적 착취 문제를 해결하는 데 큰 도움이 될 것입니다. Meta는 이제 더 책임 있는 플랫폼 운영을 위해 정책을 강화하고 사용자 보호를 위한 시스템을 개선해야 할 것입니다.


자주 묻는 질문 (FAQ)

Q1. Meta의 AI 생성 이미지 정책은 어떻게 개선되나요?

A1. Meta는 AI로 생성된 성적 이미지를 다루는 정책에서 "비하적"이라는 용어를 "비동의"로 변경하고, 정책을 성적 착취 섹션으로 옮기는 등의 개선을 검토 중입니다.

Q2. AI 생성 이미지 피해자는 어떤 문제를 겪고 있나요?

A2. 피해자들은 종종 비동의 이미지를 신원 도용 문제로 치부하거나, 신고 과정에서 2차 피해를 겪는 경우가 많습니다.

Q3. Meta는 어떻게 AI 생성 성적 이미지를 처리하나요?

A3. Meta는 AI 생성 이미지가 비동의로 생성되었을 경우 이를 금지하며, 미디어 보도 등을 통해 빠르게 대응하지만 여전히 정책 개선이 필요합니다.

Q4. 왜 이런 이미지들이 빠르게 확산될까요?

A4. 인터넷 상에서 한 번 게시된 이미지는 매우 빠르게 다른 플랫폼으로 퍼지기 때문에 원본 플랫폼에서의 삭제만으로는 충분하지 않습니다.

Q5. 앞으로 Meta는 어떻게 정책을 개선할 계획인가요?

A5. Meta는 Oversight Board의 권고에 따라 AI 생성 성적 이미지에 대한 더 철저한 대응을 검토할 예정입니다.

728x90
반응형