AI가 얼굴 표면의 정맥 색깔 변화 감지…조작 영상과 차이 인식
[편집자주] 기술·사회·산업·문화 전반의 변화가 가속화하고 있다. 산업·문화 혁신과 사회·인구 구조 변화 등 여러 요인이 유기적으로 맞물린 현상이다. 다가오는 시대에 성공적으로 대처하려면 현재를 진단하고 미래를 가늠해 보는 지혜가 필요하다. 이를 위해 뉴스1은 세상 곳곳에서 감지되는 변화를 살펴보고 어떤 식으로 바뀌는지 '미래on'을 통해 다각도로 살펴본다.
인텔의 '페이크 캐처'(FakeCatcher) 공식 안내 영상 (인텔 홈페이지 갈무리)
(서울=뉴스1) 신은빈 기자 = 심장이 뛸 때마다 혈액은 혈관을 타고 퍼져 나간다. 혈류는 피부에 비치는 색을 미세하게 바꾼다. 영상 픽셀이 구현한 얼굴 표면에서 정맥의 색깔 변화가 나타나지 않는 부분은 인공지능(AI)에 포착된다. 혈류를 잡아 가짜 영상을 탐지하는 기술 '페이크 캐처'(FakeCatcher)다.
1일 정보기술(IT) 업계에 따르면 최근 빅테크는 딥페이크(AI로 합성한 조작 영상물) 피해를 막기 위해 실시간 탐지 기술 '페이크 캐처'를 도입하고 있다.
페이크 캐처는 영상 픽셀 내 탐지되는 혈류를 인식해 얼굴 표면에 나타나는 정맥 색의 변화를 감지한다. 통상 사람의 얼굴을 촬영한 영상은 얼굴 표면에 혈류와 정맥 정보가 드러나지만 가짜로 조작한 영상에는 나타나지 않는다.
페이크 캐처에 탑재된 AI는 원본 영상의 픽셀에서 나타나는 미묘한 혈류 변화를 감지해 단서를 확보하고, 가짜 영상에서 다른 점을 탐지하는 방식으로 합성 여부를 판별한다.
이 기술은 2022년 인텔이 출시했다. 정보통신기획평가원(IITP)의 주간기술동향 연구논문에 따르면 페이크 캐처를 활용한 기술은 딥페이크 동영상을 96%의 정확도로 걸러낼 수 있다.
다만 이 정확도는 출시 당시 학습시킨 데이터세트를 바탕으로 산출된 값이다. 시간이 흐르면서 생성형 AI의 기술력은 더 정교해졌고, 학습에 투입할 수 있는 데이터세트의 종류 역시 다양해졌다.
우사이먼성일 성균관대 소프트웨어학과 교수는 "(학습시킨 데이터가 아닌) 다른 데이터를 투입하면 정확도 결과가 전혀 다르게 나온다"며 "지금은 그때와 생성형 AI의 기술이나 기법이 상당히 달라졌다"고 설명했다.
고도화하는 생성형 AI 기술에 발맞춰 학계와 정부·기업도 딥페이크 방지책을 꾸준히 업데이트하고 있다.
현재 유럽연합(EU)과 미국 등 해외 기업들은 페이크 캐처와 유사한 딥페이크 탐지 기술을 연구하고 있다. 국내에서는 경찰청이나 검찰청, 과학기술정보통신부 등 국가기관 위주로 관련 핵심 기술을 개발하고 있다.
영상과 음성을 한꺼번에 탐지할 수 있는 멀티모달(복합 정보 처리) AI 기술이나 딥페이크 생성 자체를 차단하는 AI 알고리즘 등이 그 예시다. 생성형 AI에 음란물과 범죄물 등 딥페이크를 만들라는 명령어를 입력하면 이를 거부하고, 특정 이미지는 합성할 수 없도록 억제하는 알고리즘도 개발 단계에 있다.
국내 기업의 페이크 캐처 도입에는 시간이 좀 더 걸릴 전망이다. 관련 기술의 연구는 활발하지만 수익성이 낮아 상용화가 어렵다는 게 전문가 분석이다.
우 교수는 "딥페이크가 가장 많이 범람하는 공간은 사회연결망 서비스(SNS) 등 플랫폼인데, 페이크 캐처로 업로드되는 영상을 일일이 탐지하면 이용자가 줄어들 수 있다"며 "플랫폼 기업들이 이 같은 탐지 기술을 적극 도입한다면 딥페이크 범죄를 더욱 효과적으로 막을 수 있을 것"이라고 내다봤다.
bean@news1.kr
Copyright © 뉴스1. All rights reserved. 무단 전재 및 재배포, AI학습 이용 금지.