페이지 안내

서울대 소식

뉴스

뉴스

서울대뉴스

차별에 맞서는 방법을 배우는 시간, 인권센터 웨비나 〈혐오와 차별에 대응하기 위한 다양한 접근들〉

2023.02.01.

지난해 12월 다양성위원회와 고길곤 교수(행정대학원)가 발표한 서울대 인권헌장에 대한 인식조사에서 서울대 학생들은 ‘에브리타임’ 등 대학생 온라인 커뮤니티에서 가장 많은 차별을 겪고 있다고 답했다. 학내 인권 문제를 담당하는 인권센터는 온라인상 차별 문제의 대응 방법을 논의하고자 1월 세 차례의 *웨비나를 기획했다. 이번 웨비나는 개인적, 기술적, 정책적 측면에서 혐오 문제를 바라보고 그 해결책을 제시했다.

온라인 이점 살린 웨비나, 외국의 사례로 폭넓은 논의 가능케 해

온라인 공간에서의 혐오는 우리나라에 국한된 문제가 아니라 전 세계적 문제이다. 인권센터는 해외 사례를 통해 구체적으로 논의할 연사를 섭외해, 1월 12일에 진행된 1회차 세미나에서는 혐오 범죄를 목도한 목격자의 역할을, 17일에 2회차 발표에서는 온라인 안전에 활용하는 AI 기술을 이야기했다. 26일에 진행된 마지막 세미나에서는 소수자 문제를 마주하는 일본 대학의 정책 사례를 들었다. 현재 일본의 다수 대학에서 소수자 차별을 예방하고 해결하는 데에 주력하고 있어 그 경험을 공유했다.

웨비나 강연 포스터
웨비나 강연 포스터

1회차 강연은 성차별 전문 변호사이자 젠더 기반 범죄와 페미니즘 이론을 연구하는 브라이튼 대학교 조 스미스(Jo Smith) 교수가 맡았다. 트위터나 인스타그램 등 SNS에서의 혐오 범죄 실사례를 중심으로 강연을 전개한 그는 혐오 범죄를 권력 위계질서의 유지 장치라 일컫는다.

조 미스는 교수는 혐오 범죄는 이를 발견한 목격자(bystander)에게도 영향을 미치는데, 그들은 보다 적극적으로 사회 비판적인 노래 가사를 쓰는 등 예술과 다양한 방법을 통해 본인의 의견을 표출한다고 설명했다. 경찰이나 전문가가 아니라 일반 시민이 자체적으로 범죄자를 찾고 처벌하는 디지털 자경주의(vigilantism)도 대응 방법의 일종이라는 것이다. 이러한 대처는 때때로 저항과 가해 중 하나로 명확히 구분하기 어렵다는 문제가 존재하지만 조 스미스 교수는 “목격자의 행동이 분명 문제 해결에 중요한 단서가 된다”며 혐오 문제의 새로운 연구 방향을 제시했다.

차별 문제의 해답은 학문 영역을 넘어선 ‘협력’

1회차 강연에서 사적인 대응 방식을 고민했다면, 17일에 열린 2회차 강연에서는 차별의 해결 방안으로서 개인과 정책적 방법을 넘어 과학기술의 활용을 살펴봤다. 강연은 영국의 테크 스타트업 ‘Rewire’의 CEO인 벌트럼 비전(Bertram Vidgen) 박사가 맡았다. Rewire에서는 온라인에서의 유해 표현을 감지하는 AI 모델을 개발해 기업과 연구기관 등에 배포하고 있다. 그는 혐오 표현 탐지 과정에 가치판단이 내재한다는 점을 이유로 ▲문화 및 대화적 맥락의 이해 부재 ▲ 옳고 그름 사이의 모호한 표현에 대한 합의 어려움 ▲AI 판단의 신뢰 불가능성 ▲이미지 판독 불가 등으로 현재의 AI 모델의 한계를 설명했다.

비전 박사는 AI 모델의 실수를 줄이기 위해 혐오 표현 여부를 결정하는 구체적 기준을 만들고 단점을 해결해나가고 있다. AI가 데이터의 중요도를 판단해 라벨링 여부를 자체 선별하도록 훈련하는 능동학습과 무작위 데이터를 통해 AI의 정보 판독 능력을 검증하는 적대적 데이터 생성 방식을 이용하고 있다. 이와 함께 그는 대부분의 연구와 개발이 영어 위주로 이뤄진 점을 꼬집으며 소수 언어나 두 개 이상의 언어가 섞여 만들어진 혼합 언어 배경에서는 추가적인 연구가 필요하다고 강조했다. 그는 비영어권인 케냐와 인도네시아에서의 모델 개발 성과를 공유하며 발전 가능성을 암시했다.

비전 박사가 AI 모델의 능동학습(active learning) 과정을 설명하고 있다.
비전 박사가 AI 모델의 능동학습(active learning) 과정을 설명하고 있다.

AI 모델 훈련 과정 등 기술적 개념을 다루기도 했지만 청중의 반응은 뜨거웠다. 지정토론자인 카이스트 오혜연 교수(전산학부)는 *저자원언어의 개발에 관해 ‘현지 연구기관과의 협업 가능성’을 질문했고, 비전 박사는 수익성을 이유로 들어 시민사회단체 등 여러 기관의 협업과 지원이 필요함을 언급하며 기업의 현실적인 어려움을 공유했다. AI의 악용 가능성에 관한 질문엔 아직은 인간의 손길이 필요한 영역이라며 AI 모델의 한계를 다시 한번 짚었다. 인권센터의 이주영 연구교수는 “인권 관련 문제에서는 학문 영역을 뛰어넘는 대응이 필요하다”며 “이번 웨비나가 다양한 각도에서 의견을 모으고 행동할 계기가 된 것 같다”는 소감을 밝혔다.

인터넷 사용이 빈번해질수록 편리함은 커지지만 동시에 차별과 혐오에 노출될 가능성도 높아진다. 혐오 문제의 심각성을 인지하고 여러 대처 방법을 논의하는 것은 우리가 당면한 과제다. 홈페이지와 마이스누에 게재되는 홍보물을 통해 사전 신청이 가능한 웨비나는 모든 학내 구성원을 포함, 해당 문제에 관심이 있는 외부인 모두에게 열려 있다. 인권센터장 이상원 교수(법학전문대학원)는 웨비나를 ‘문제에 대한 해결법을 공유하며 사유와 지평을 넓히는 시간’이라고 말한다. 인권 문제에 관심이 있는 구성원에게 이후 새로운 주제로 열릴 웨비나에 참여해 해결방법을 진취적으로 고민해보길 추천한다.

*웨비나: 웹(web)과 세미나(seminar)의 합성어로 온라인으로 진행하는 양방향 세미나를 의미한다.
*저자원언어: AI 모델을 훈련하는 데 사용하는 학습 데이터가 상대적으로 부족한 언어를 뜻한다.

서울대 학생기자
남나리(수학교육과)
narista00@snu.ac.kr