기술이 발전하면서 딥페이크 피해 디지털 성범죄 피해가 급증하고 있습니다. 특히 피해자 중 많은 수가 학생이며, 불법 영상물 합성으로 인한 심각한 정신적 고통을 겪고 있습니다. 딥페이크 성범죄의 현재 상황과 이에 대한 대책을 살펴보며, 사회적 대응 방안을 모색해보겠습니다.
딥페이크 피해 성범죄의 증가

최근 딥페이크 기술을 이용한 성범죄가 급증하고 있으며, 특히 학생들이 주요 피해자로 떠오르고 있습니다. 딥페이크 기술은 인공지능을 사용하여 특정 인물의 얼굴을 합성해 음란물로 제작하는 방식입니다. 이러한 피해는 점점 증가하고 있지만, 이에 대한 효과적인 대응책은 아직 미흡한 상황입니다. 학부모들과 학교 측에서는 이러한 디지털 성범죄에 대한 불안감이 커지고 있으며, 피해자들이 더욱 늘어날 것을 우려하고 있습니다.
또한, 딥페이크 성범죄의 가해자를 처벌하려는 움직임도 일부에서 나타나고 있습니다. 예를 들어, 텔레그램과 같은 온라인 메신저에서 가해자의 신상을 공유하며 보복하려는 시도도 보입니다. 피해자가 늘어나면서 법의 공백을 채우기 위한 자구책이 등장한 것입니다. 하지만 이러한 방법이 법적 처벌로 이어지지는 않기 때문에, 근본적인 대책이 절실한 상황입니다.
딥페이크 피해 연예인 피해자로 등장

딥페이크 기술로 인한 피해는 연예인과 지인을 대상으로 한 음란물 합성 범죄로도 확산되고 있습니다. 연예인들의 얼굴을 음란물에 합성해 유포하는 범죄는 빠르게 증가하고 있으며, 가짜 신분증 제작이나 음성을 이용한 신분 사기도 새로운 위협으로 떠오르고 있습니다. 이러한 사기 수법은 사람들의 신뢰를 해치고, 피해자에게 심각한 정신적 피해를 줄 수 있습니다.
특히 한국은 딥페이크 피해에 매우 취약한 나라로 평가되고 있습니다. 미국의 사이버보안 업체 ‘시큐리티 히어로’가 발표한 2023년 딥페이크 현황 보고서에 따르면, 전 세계 딥페이크 성범죄 피해자의 53%가 한국인이었으며, 그중 대부분은 가수나 배우와 같은 연예인이었습니다. 이로 인해 유명인의 프라이버시가 심각하게 침해되고 있으며, 그 피해는 점점 더 확산될 것으로 보입니다.
딥페이크 피해 플랫폼 책임 강화

딥페이크 기술 자체를 완전히 막는 것은 기술적으로나 현실적으로 어려운 과제입니다. 따라서 전문가들은 딥페이크 범죄를 줄이기 위해 불법 콘텐츠가 유포되지 않도록 플랫폼의 책임을 강화하는 것이 가장 현실적인 대책이라고 보고 있습니다. 유럽연합(EU)은 이미 플랫폼에 대한 법적 의무를 부과하고 있으며, 우리나라 역시 이러한 규제 강화 방안을 도입할 필요가 있다는 의견이 있습니다.
김명주 서울여대 정보보호학과 교수는 “EU의 사례처럼 플랫폼에 법적인 책임을 더 강화하여 딥페이크 영상의 유통을 막아야 한다”고 제안했습니다. 또한, 플랫폼이 불법 콘텐츠를 즉시 삭제할 수 있는 시스템을 구축하여 피해를 줄이는 방안이 검토되고 있습니다. 이를 통해 딥페이크 피해를 예방하고, 신속하게 대응할 수 있을 것으로 기대됩니다.
딥페이크 피해 법적 장치 도입

딥페이크 문제를 해결하기 위해 인공지능으로 만든 가상 정보와 실제 정보를 구분하는 법적 장치가 마련되고 있습니다. 2023년 12월 22일에 발의된 「정보통신망 이용촉진 및 정보보호 등에 관한 법률」 개정안은 인공지능 기술로 만들어진 가상 정보에 대한 명확한 표시를 의무화하고, 이를 위반할 경우 처벌하는 내용을 담고 있습니다.
이 법안은 크게 두 가지를 중심으로 합니다. 첫째, 인공지능 기술로 만들어진 정보임을 표시하는 것이 의무화되며, 둘째, 만약 이를 표시하지 않고 유통할 경우 정보통신서비스 제공자가 즉시 해당 정보를 삭제해야 합니다. 이를 통해 허위 정보로 인한 혼란을 줄이고, 신뢰할 수 있는 인터넷 환경을 조성하려는 목적을 가지고 있습니다.
딥페이크 피해 법률안의 문제점

그러나 이 법안에도 여러 가지 문제점이 존재합니다. 먼저, 인공지능 기술을 통해 가상 정보에서 ‘표시’를 제거하는 기술적 조작이 발생할 가능성이 있습니다. 이렇게 되면 외관상으로는 해당 정보가 실제 사실처럼 보이게 되어, 허위 정보가 더욱 널리 퍼질 위험이 있습니다. 이로 인해 법률안이 오히려 가상 정보의 진실성을 높이는 아이러니한 결과를 초래할 수 있습니다.
또한, 법안은 가상 정보에 대한 표시 의무 위반에 대한 처벌 규정만을 다루고 있으며, 실제 사실에 가짜 표시를 붙이는 거짓 표시에 대한 규제는 빠져 있어 진실 조작 문제를 방지하지 못하는 한계가 있습니다. 따라서 거짓 표시를 금지하는 추가적인 법적 대응책이 필요하다는 지적도 있습니다.
행정 비용과 기업 경영 자율성 문제

이 법안이 시행되면 정부가 인터넷 게시물의 적법한 표시 여부를 점검해야 하므로 상당한 행정 비용이 발생할 수 있습니다. 또한, 정보 제공자에게 표시 의무를 부과하는 과정에서 기업의 자율성을 침해할 가능성도 제기되고 있습니다. 기업이 자체적으로 적합한 표시 방식을 개발해 적용할 수 있음에도 불구하고, 대통령령으로 표시 방법을 일괄적으로 결정하는 것은 경영 자율성을 저해할 수 있기 때문입니다.
딥페이크 문제 해결을 위한 사회적 논의 필요



딥페이크 기술의 발달은 큰 편리함을 제공하지만, 그로 인한 예상치 못한 부작용도 큽니다. 단순히 법률적 대응만으로는 모든 문제를 해결하기 어렵다는 것이 현실입니다. 따라서 사회 구성원 모두가 지혜를 모아 이 문제를 해결하기 위한 실질적인 방안을 고민해야 할 시점입니다. 정부와 플랫폼, 기업, 그리고 개인이 협력하여 딥페이크 피해를 최소화하고, 더 나은 디지털 환경을 구축하는 것이 중요합니다.
마무리


딥페이크로 인한 피해는 이제 사회적 문제로 떠오르고 있으며, 이를 해결하기 위한 다각적인 노력이 필요합니다. 이 글을 통해 딥페이크 피해자는 물론 사회적으로 문제를 이해하고 대처하셨으면 좋겠습니다.
함께 보시면 좋은 글
붓기 해소 다양한 관리법
제시 팬 폭행 사건 사과문 발표
침수차 구별하는 방법
넷플릭스 코미디 리벤지
북한 전방 사격준비 태세

“딥페이크 피해 대책 및 해결방안”에 대한 3개의 생각