Global News

호주 청소년 SNS 금지법 (계정차단, 온라인피해, 플랫폼규제)

thinkroom 2026. 5. 13. 06:25

숏폼 영상 하나를 보려고 앱을 열었다가 한 시간이 훌쩍 지나 있었던 경험, 저도 한두 번이 아닙니다. 성인인 저도 이런데, 판단력이 아직 자라고 있는 청소년에게는 어떨지 생각하면 쉽게 넘기기 어렵습니다. 호주가 세계 최초로 16세 미만 청소년의 SNS 계정 보유 자체를 막는 법을 시행한 지 반 년이 지났습니다. 결과는 예상보다 복잡했습니다.

 

호주 청소년 SNS 금지법 (계정차단, 온라인피해, 플랫폼규제)

계정차단: 470만 개를 막았는데 왜 효과는 불분명한가

호주는 2025년 12월부터 16세 미만 청소년이 페이스북, 인스타그램, 틱톡, 엑스(X), 레딧, 트위치, 유튜브 등 10개 플랫폼에서 계정을 만들거나 유지하지 못하도록 하는 제도를 시행했습니다. 법을 어긴 플랫폼에는 최대 4,950만 호주달러, 우리 돈으로 약 520억 원의 과징금이 부과될 수 있습니다.

 

숫자만 보면 집행은 상당히 강력했습니다. 호주 정부 규제기관인 온라인안전위원회(eSafety)가 발표한 초기 3개월 보고서에 따르면, 주요 플랫폼들이 16세 미만 계정 약 470만 개를 삭제하거나 비활성화·접근 제한 처리했습니다. 2026년 3월 초 기준으로 추가로 31만 개 이상의 계정 접근도 차단됐습니다(출처: 호주 온라인안전위원회 eSafety).

 

그런데 같은 보고서에서 온라인안전위원회는 16세 미만의 온라인 피해 신고가 "전반적으로 뚜렷하게 줄지 않았다"고 밝혔습니다. 2026년 1~2월 사이버불링(사이버괴롭힘)과 이미지 기반 성적 피해 관련 신고 건수에도 "주목할 만한 변화가 관찰되지 않았다"는 것입니다. 여기서 이미지 기반 성적 피해란 동의 없이 타인의 신체 이미지를 온라인에 유포하거나 공유하는 행위를 의미합니다. 청소년 피해 사례에서 특히 문제가 되는 유형입니다.

 

저는 이 결과를 보면서 처음에는 다소 의아했습니다. 수백만 개 계정을 차단했는데 피해가 줄지 않았다는 게 어떻게 가능한 걸까. 생각해 보니 답은 비교적 단순했습니다. 문제는 계정의 존재 여부가 아니라 플랫폼이 작동하는 방식 자체에 있었던 겁니다.

온라인피해: 금지를 우회하는 청소년들, 더 어두운 곳으로

정책 효과가 제한적인 이유 중 하나는 연령 확인 우회가 너무 쉬웠다는 점입니다. 온라인안전위원회 보고서는 상당수 청소년이 나이를 16세 이상으로 입력하는 방식만으로 계정을 유지하거나 새로 만들 수 있었다고 지적했습니다. 일부 플랫폼은 신뢰도 낮은 연령 확인을 반복적으로 허용해 사실상 우회 통로를 열어 둔 셈이었습니다.

 

글로벌 여론조사기관 유고브(YouGov)가 2026년 1월 호주 성인 1,070명을 대상으로 실시한 조사에서 응답자의 59%는 이 정책이 "지금까지 효과적이었다"고 평가했습니다. 하지만 동시에 응답자의 97%는 정책 효과를 판단하려면 더 강한 근거가 필요하다고 답했고, "추가 조치나 정책 보완이 필요하다"는 응답도 95%에 달했습니다(출처: YouGov). 찬성하면서도 보완이 필요하다는 응답이 거의 전원에 가깝다는 사실이 인상적이었습니다.

 

제가 직접 생각해 봐도 이건 예상 가능한 결과였습니다. 청소년들이 규제 대상 플랫폼에서 밀려나면 더 폐쇄적이고 감독이 어려운 온라인 공간으로 이동할 가능성이 높습니다. 관리가 가능한 주류 플랫폼에서 눈에 띄지 않는 곳으로 이동하는 셈이니, 오히려 피해를 발견하고 대응하기가 더 어려워지는 역설이 생깁니다.

 

 

계정 차단이라는 방식의 한계를 정리하면 다음과 같습니다.

  • 연령 입력 조작만으로도 우회가 가능해 실효성이 낮습니다.
  • 규제 플랫폼에서 이탈한 청소년이 비규제 공간으로 유입될 수 있습니다.
  • 계정 삭제는 피해 환경 자체를 바꾸지 않아 피해 신고 감소로 이어지지 않습니다.
  • 플랫폼의 추천 알고리즘이나 콘텐츠 노출 방식은 금지와 무관하게 유지됩니다.

플랫폼규제: 금지보다 설계 변경이 더 중요한 이유

그렇다면 어떤 방향이 더 실질적일까요. 학계에서는 이미 "연령 제한만으로는 충분하지 않다"는 쪽에 무게를 두고 있습니다. 호주 플린더스대, 애들레이드대 연구진은 2026년 2월 의학 학술지 랜싯에 게재한 논평에서 구체적인 대안을 제시했습니다. 게시물 추천 알고리즘의 투명성 공개, 청소년 계정에 대한 참여 극대화 알고리즘 기본 적용 금지, 사용 시간 제한, 플랫폼의 법적 책임 강화가 핵심이었습니다.

여기서 추천 알고리즘이란 사용자의 클릭·시청 패턴을 분석해 더 오래 머물게 만드는 콘텐츠를 자동으로 선별·노출하는 시스템입니다. 저도 짧은 영상을 보다 보면 비슷하지만 점점 자극적인 콘텐츠로 이어지는 경험을 자주 합니다. 성인도 이런 흐름을 끊기 어려운데, 청소년에게는 훨씬 더 강하게 작동할 수밖에 없습니다.

 

영국은 이 방향의 선례를 보여주고 있습니다. 영국 개인정보감독기구(ICO)는 2024~2025년 SNS와 동영상 공유 플랫폼을 집중 점검하면서 아동 계정의 기본 공개 범위, 위치정보 기본값, 맞춤형 광고, 추천 시스템, 연령 확인 조치를 들여다봤습니다. 이후 일부 플랫폼은 아동 프로필을 비공개 기본값으로 전환하거나, 위치정보 노출을 줄이고, 미성년자 대상 맞춤형 광고를 중단·제한했습니다. 계정을 막는 게 아니라 플랫폼 설계 자체를 바꾼 것입니다.

 

제 경험상 이 접근이 훨씬 현실적입니다. 청소년들은 어떤 방식으로든 온라인에 접속할 것이고, 그렇다면 그들이 접속하는 공간이 덜 위험하게 설계되어 있어야 합니다. 기본 비공개 설정(기본적으로 계정을 외부에 노출하지 않는 초기 설정값), 위치정보 보호, 미성년자 대상 행동 타겟팅 광고 제한, 이 세 가지만 제대로 적용해도 지금보다 훨씬 안전한 환경이 만들어질 수 있다고 생각합니다.

 

결국 호주 사례가 보여준 것은 단순한 금지 정책의 한계입니다. 계정을 없애도 플랫폼이 유해하게 설계되어 있다면 피해는 다른 경로로 이어집니다. 청소년을 보호하려면 못 쓰게 막는 것이 아니라, 위험하게 설계된 플랫폼 구조 자체를 바꾸는 방향으로 규제가 진화해야 한다고 생각합니다. 호주의 시도는 그 필요성을 데이터로 확인시켜 준 의미 있는 실험이었습니다. 이제 남은 과제는 다음 단계를 어떻게 설계하느냐입니다.


참고: https://v.daum.net/v/20260512220317016