[ad_1]

생성AI 기술과 관련된 잠재적 피해 줄이기 위해
몇달내 페이스북·인스타그램·스레드 서비스에 적용

사진=REUTERS

메타 플랫폼(META) 은 올해 미국대선 등을 앞두고 잘못된 정보와 허위사실이 확산되는 것을 막기위해 앞으로 몇 달내로 인공지능(AI) 서비스로 생성된 이미지를 파일에 내장된 보이지 않는 마커 세트를 사용해 라벨링할 계획이라고 밝혔다. 이는 합성 콘텐츠가 증가하는 가운데 생성 AI 기술과 관련해 허위 정보 및 잘못된 이미지에 의한 피해를 줄이기 위한 새로운 시도로 풀이된다.

6일(현지시간) 로이터에 따르면, 메타플랫폼의 최고정책 책임자로 국제부문사장인 닉 클레그는 블로그 게시물을 통해 이같이 밝혔다. 메타는 실제 사진과 유사한 이미지가 디지털 합성물임을 사용자에게 알리기 위해 페이스북, 인스타그램, 스레드 서비스에 모든 콘텐츠에 라벨을 적용할 계획이라고 밝혔다.

메타는 이미 자체 AI 도구로 생성된 모든 콘텐츠에 라벨을 붙이고 있다. 새로운 시스템이 실행되면 오픈AI의 챗GPT나 마이크로소프트, 어도비, 구글, 셔터스톡 등을 이용해 만들어진 디지털 이미지에도 라벨이 붙게 된다.

이 접근 방식은 대규모 폭력 및 아동 착취 묘사를 포함하여 플랫폼 전반에서 금지된 콘텐츠의 제거를 조정하기 위해 지난 10년간 구축한 템플릿을 기반으로 한다.

클레그는 로이터 통신과의 인터뷰에서 그러나 오디오 및 비디오 콘텐츠를 표시하는 도구는 더 복잡하며 현재 개발중이라고 말했다. 그 사이에 메타는 사람들이 편집한 오디오 및 비디오 콘텐츠에 라벨을 붙이도록 요구할 것이라고 밝혔다.

현재 AI 도구로 생성된 텍스트에 라벨을 붙일 수 있는 가능한 메커니즘은 없다고 덧붙였다.
전 날 메타의 이사회는 조작된 비디오에 대한 회사 정책이 너무 좁으며 콘텐츠 삭제보다는 라벨을 붙여야한다고 지적했다.

김정아 객원기자 kja@hankyung.com

[ad_2]