티스토리 뷰


안녕하세요 지스토리입니다.


최근 페이스북은 혐오 발언을 없애기 위해 AI를 사용하는 것이 점점 더 좋아지고 있다고 말합니다.




출처: CNN BUSINESS


페이스북은 방대한 소셜 네트워크에서 혐오 발언을 근절하기 위해 인공지능을 구축하고 배치하는 데 수 년을 보냈다. 이 회사는 현재 이 기술을 사용하여 거의 95%에 달하는 콘텐츠가 다운되는 것을 사전에 포착하고 있다고 말한다. 그러나 나머지 5%는 해결하기 어려울 수 있다.


13일 페이스북은 자사 AI 시스템이 2020년 3분기 소셜네트워크서비스(SNS)에서 삭제한 2,210만건의 혐오표현물 중 94.7%를 검출했는데 이는 1년 전 같은 분기의 690만건의 80.5%를 AI가 발견한 데 따른 것이라고 밝혔다.

 2017년 당시 취하한 전체 혐오 관련 콘텐츠의 24%인 훨씬 적은 혐오 표현을 AI로 선제적으로 탐지할 수 있었다. 이 수치는 이 회사가 8월 현재 분기별로 발행하기 시작했다는 지역사회 표준 시행 보고서 최신판에서 나온 것이다.

이번 업데이트는 마크 저커버그 페이스북 최고경영자(CEO)의회에서 인터넷 규제에 대해 발언한 지 불과 며칠 만에 나온 것으로, 이 과정에서 그는 페이스북이 테러 및 아동 폭발 콘텐츠를 보기 전에 발견하기 위한 알고리즘에 의존하고 있다고 거듭 지적했다.


다른 많은 소셜 네트워크와 마찬가지로, 페이스북은 AI에 의존하여 인간 승무원이 자신의 eponymous 플랫폼과 인스타그램에서 끊임없이 증가하는 콘텐츠를 조정하도록 돕는다. 사람들이 예술적인 누드화와 착취적인 사진의 차별화, 혹은 그들 스스로 순수해 보이는 말과 이미지가 짝을 지을 때 어떻게 상처를 줄 수 있는지를 이해하는 데 독특하기 때문에 불쾌한 사용자 게시물과 광고를 제거하는 것은 까다롭고 끝이 없는 일이다.




출처: YouTube


마이크 슈뢰퍼 페이스북 최고기술책임자(CTO)는 26일 기자들과의 화상통화에서 페이스북이 최근 사용 중인 AI 도구 중 일부에 대해 오프라인에서 데이터 세트가 아닌 페이스북 시스템의 온라인 데이터를 활용해 개선한 것과 같은 유해 콘텐츠를 찾아내기 위해 사용하고 있다고 설명했다. 그는 가능한 한 소수의 사람들이 소셜 네트워크에서 불쾌한 내용을 볼 때까지 이 기술을 계속 추진하는 것이 그의 목표라고 말했다. 과거 페이스북은 2019년 3월 뉴질랜드 이슬람사원 총격사건 등 AI가 폭력적인 실사를 잡지 않는 것은 물론 업무 특성상 볼거리가 소름끼칠 수 있는 콘텐츠에 지나치게 의존한다는 비판을 받아왔다.

슈뢰퍼는 "확실히, 나는 우리가 끝날 때까지 만족하지 않는다"고 말했다. "그리고 우리는 아직 끝나지 않았어."


그러나 AI가 파악하기에 가장 까다로운 콘텐츠는 아직까지도 미묘함과 맥락에 의존하고 있는데 이는 컴퓨터가 숙달하지 못한 단서들이다. 슈뢰퍼는 페이스북이 현재 혐오스러운 말을 탐지하는 작업을 하고 있다고 말했다. 그 회사는 연구자들이 탐지 능력을 향상시키는 것을 돕기 위해 그러한 콘텐츠와 관련된 공개적인 데이터 세트를 봄에 출시했다. 상처가 될 수도 있지만 AI 레이더 아래 날아갈 수도 있는 콘텐츠의 예로 '너는 여기에 속해 있다'는 문구와 겹쳐진 공동묘지의 이미지를 들었다.

그는 "만약 내가 '너는 여기에 속해 있다'는 문구를 덧씌웠는데 배경 이미지가 놀이터라면 괜찮다. 그는 "묘지라면 대상 계층인 당신에 대한 증오로 해석될 수도 있다"고 지적했다.


끝으로 페이스북은 혐오 발언과 비슷한 문자와 이미지를 구별하는 매칭 기능과 혐오발언 콘텐츠에서 공통적인 문구나 패턴의 유사성을 감지하는 기법도 쓰고 있다고 소개했습니다.

이와 함께 테러 선동이나 아동 나체 이미지, 아동에 대한 성 착취, 불법 무기와 의약품 등 유해 콘텐츠 에 대해서는 90% 후반대의 사전 감지율로 사용자가 신고하기 전에 삭제 조치하므로 다행인 것 같습니다.

또한 페이스북 콘텐츠 관리 정책팀은 약 3만 5000명의 인력이 투입된 글로벌 조직으로 24시간, 365일 지원하고 있고 전세계적으로 1만 5000여명의 잠재적 유해 콘텐츠를 검토하는 팀이 있으며, 한국어를 포함해 50개 이상의 언어로 사용자 커뮤니티에서 들어오는 신고물에 대한 리뷰 및 지원을 제공한다고 합니다.


이와 더불어 유해 콘텐츠를 사전에 감지하고 이용자들의 신고에 대응하기 위해 AI에 지난 5년 동안 지속적으로 투자하고 있다고 밝혀졌습니다.

이렇게 유해콘텐츠 를 안보고 활용할 수 있다니 참 좋은 방안입니다. 저는 현재 (인스타그램, 트위터 포함)어플들을 잘 사용은 안해서 모르겠지만, 이러한 소셜미디어 플랫폼들은 사전에 유해콘텐츠를 제거하여 향후 자살, 폭력 이런 사건들이 없도록 해주는 게 현재로서는 최고의 방안이라고 생각합니다.(ex: 비슷한 사례로 네이버 AI 인식 악플차단 처럼 말입니다.) 


정보가 도움되셨기를 바랍니다. 글 읽어주셔셔 감사합니다:) 좋은하루 되세요.

댓글