딥페이크 악용 범죄 예방 교육 나선 경찰관 (사진 연합뉴스 제공)
'딥페이크 성 착취물'로 인한 10대 피해자가 증가하는 가운데 불법합성물을 제작하는 주 도구로 지목되는 '생성형 인공지능(AI)'에 대한 교육을 받은 중고등학생이 3명 중 1명에 불과한 것으로 조사됐다.
반면에 절반이 넘는 이들이 일상생활에서 '생성형 AI 기술을 이용한 적이 있다'고 답한 것으로 나타나 관련 분야의 교육 강화가 요구된다.
2일 한국청소년정책연구원은 '청소년 디지털 인재를 어떻게 양성할까' 보고서에서 이런 결과를 내놓았다.
지난해 7∼8월 전국 중·고등학교에 다니는 청소년 2천261명(남학생 1천172명·여학생 1천89명)을 대상으로 설문한 결과에 따르면 지난 6개월 동안 학교에서 '생성형 AI 기술 활용 교육'을 받은 비율은 35.7%로 집계됐다.
연구진이 설문한 ▲인터넷·스마트폰 과의존 방지 교육 ▲ 개인정보 보호 교육 ▲ 스미싱 등 디지털 금융 사기 예방 교육 등 10가지 항목 가운데 7번째로 낮은 비율이다.
일상에서 생성형 AI를 이용한 적이 있다고 답한 비율은 이보다 약 17%포인트 많은 52.1%로 조사됐다.
성별로는 남자(57.3%)가 여자(46.6%)보다 많았고, 학교급별로는 고등학생(61.5%)이 중학생(43.7%)보다 많았다.
이용자 가운데 75.7%는 '하루에 30분 미만' 사용한다고 답했다.
'30분∼1시간 미만'은 12.9%, '1시간∼1시간 30분 미만'은 4.8%였다. '2시간 이상 쓴다'는 학생도 4%가 넘었다.
71.8%는 '생성형 AI를 계속 이용할 생각이 있다'고 밝혔고, 55.0%는 '생성형 AI의 정보를 신뢰한다'고 답했다.
보고서에 따르면 학생들은 딥페이크나 사이버 폭력 등의 디지털 범죄를 방지할 수 있도록 윤리 교육이 지금보다 더 마련돼야 한다는 입장을 밝혔다.
연구진이 진행한 심층인터뷰에 참여한 한 중학생은 "딥페이크나 디지털 범죄가 심각하다고 생각하지만, 학교에서 예방 교육을 받아본 적이 없다"며 "한때 딥페이크에 관한 범죄 예방이 확 떴다가 말았던 적이 있는데, 이것이 심각한 문제라는 사실을 학생들한테 인지시켜줬으면 좋겠다"고 말했다.
보고서는 "AI를 활용해 특정 인물의 얼굴을 영상에 합성한 딥페이크 기술이 발전함에 따라 허위 조작 정보가 넘쳐나고 있다"며 "이처럼 새로운 기술에 따른 부작용이 심해지면서 청소년의 리터러시 역량이 더욱 중요해졌다"고 설명했다.
그러면서 "청소년이 생성형 AI를 올바르게 사용하기 위한 정부 차원의 구체적인 가이드라인은 아직 마련되지 않은 실정"이라며 "교육부, 과학기술정보통신부, 여성가족부 등 관련 부처가 청소년의 디지털 역량 강화를 위한 사업을 추진해야 한다"고 제언했다.