Meta 플랫폼에서는 어떤 콘텐츠가 허용될까? - Let Me Explain

김아론 기자
2022-05-02


Meta 플랫폼은 악용되는 사례를 막기 위한 역할을 매우 중요하게 생각한다. Meta의 커뮤니티 규정은 폭력과 범죄 행위에서부터 안전, 무결성, 진위성을 거쳐 부적절한 콘텐츠에까지 이르는 20여 개의 주제 영역을 다룬다.

Meta는 이러한 정책을 시행하기 위해 콘텐츠 검토 담당자와 인공 지능을 함께 사용하는데, Facebook과 Instagram에서 유해한 게시물이 발견되면 무관용 원칙에 따라 해당 게시물을 삭제한다. 그러나 무관용 원칙을 적용한다고 해서 이러한 게시물이 발생하는 경우가 0으로 수렴되는 것은 아니다.

2021년 1분기 커뮤니티 규정 시행 보고서 가 공개되면서 Meta가 1월부터 3월까지 정책을 시행한 방식과 Facebook의 12개 정책, Instagram의 10개 정책의 지표를 확인할 수 있게되었다. Meta 플랫폼에서 유해한 콘텐츠를 줄이기 위해 계속해서 노력하며 발전해나갈 것이라고 밝혔으며, 보고서는 Meta에서 따로 공개한 투명성 사이트에서 확인하실 수 있습니다.

Meta는 플랫폼에서 전파되는 잘못된 정보에 대응하기 위해 60개가 넘는 언어로 콘텐츠를 검토하는 80개 이상의 독립적인 팩트 체크 기관으로 구성된 글로벌 네트워크를 출범시켰으며, 이러한 인력에 대한 투자와 인공 지능과 같은 기술에 대한 투자의 결과로 괄목한 만한 발전을 이루고 있다.

팬데믹이 시작된 이래로, Meta의 AI 시스템은 글로벌 의료 전문가들이 잘못된 정보로 분류한 코로나19 관련 콘텐츠를 삭제하고, 누군가 이 콘텐츠를 공유하려고 할 때마다 복사본을 감지하여, 그 결과 코로나19 및 백신에 관한 1,200만 건이 넘는 콘텐츠를 삭제했다.



Meta는 코로나19 정보 센터, Facebook과 Instagram에서 피드에 표시되는 알림, 그리고 Meta가 특정 게시물에 첨부하는 전문가들의 믿을 수 있는 정보 레이블을 통해 잘못된 정보의 가시성을 줄이는 동시에 믿을 수 있는 정보를 노출할 수 있었다. 게시물에 경고 화면이 표시되면 95%의 경우 사람들이 이 화면을 클릭하지 않습니다. 세계 각지에서 코로나19 백신 접종이 시행되고 있는 지금, Meta는 5천 만 명의 사람들이 코로나19 백신 접종에 한 걸음 더 다가갈 수 있도록 지원하는 글로벌 캠페인을 주도하고 있다고 말했다.


김아론 기자 info@dowaseum.org

[저작권자 ⓒ디지털트렌드코리아 무단 전재-재배포 금지]

0 0