최근 AI 딥페이크 기술이 발전하면서, 특히 아동을 포함한 실제 인물의 동의 없는 이미지를 생성하는 사례가 늘어남에 따라 국제적인 우려가 커지고 있습니다. 2023년에는 50만 건의 딥페이크 파일이 소셜 미디어에서 공유되었지만, 2025년에는 800만 건으로 급증할 것으로 예상됩니다. 이는 연간 900%의 성장률을 보이는 것으로, 사이버 위협 중에서도 가장 빠르게 확산되고 있습니다. 딥페이크 사기 시도는 2023년에 3,000%나 증가했으며, 특히 북미에서는 1,740%의 높은 성장률을 기록했습니다. 음성 복제 기술은 저렴하고 설득력이 뛰어나 주요 공격 벡터로 사용되고 있으며, 고품질 비디오 딥페이크의 경우 인간의 탐지율은 24.5%에 불과합니다.
이러한 딥페이크의 확산은 사이버 괴롭힘, 착취 등 취약 계층에 대한 잠재적 피해를 야기하며, 유명인의 브랜드 이미지 손상, 팬 관계 악화, 금융적 피해로 이어질 수 있습니다. 2024년에는 기업들이 딥페이크 관련 사고로 평균 50만 달러의 손실을 입었으며, 대기업의 경우 최대 68만 달러까지 손실이 발생했습니다. 2023년 암호화폐 분야에서 발생한 딥페이크 사기 사례는 전체의 88%를 차지했으며, 핀테크 산업에서도 딥페이크 사건이 700% 증가했습니다.
이에 대해 국제적인 데이터 보호 기관들은 AI 딥페이크의 위험성을 경고하고 있으며, AI 개발자들에게 오용 방지를 위한 강력한 안전장치 마련을 촉구하고 있습니다. 또한, 기술 기업들에게 피해자들이 유해 콘텐츠를 인터넷에서 삭제할 수 있도록 지원하는 메커니즘을 구축하고, 아동 보호에 특별한 주의를 기울일 것을 권고하고 있습니다. 유럽연합(EU)은 2026년 8월부터 시행될 AI 법안을 통해 AI 생성 또는 조작된 미디어에 대한 명확한 라벨링을 의무화하고 있으며, 중국 역시 유사한 규정을 시행하여 익명 오용을 방지하고 있습니다.
딥페이크 기술의 악용을 막기 위해서는 정부, 기술 기업, 시민 사회, 학계 등 다양한 이해관계자 간의 협력이 필수적입니다. AI 기술의 발전은 투명성, 책임감, 국제 협력을 통해 균형을 이루어야 하며, AI 윤리적 배포 및 의도치 않은 피해 완화를 위한 노력이 필요합니다. 딥페이크 탐지 기술 개발과 미디어 리터러시 교육을 강화하고, 국경을 넘나드는 위협에 대응하기 위한 국제 공조를 통해 안전하고 신뢰할 수 있는 디지털 환경을 구축해야 합니다.
[참고 문헌 및 출처]
- deepstrike.io
- euractiv.com
- medium.com




