메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색
질문

논문 기본 정보

자료유형
학술저널
저자정보
한아영 (한국외국어대학교) 김경태 (한국외국어대학교) 최재영 (한국외국어대학교)
저널정보
한국멀티미디어학회 멀티미디어학회논문지 멀티미디어학회논문지 제27권 제5호
발행연도
2024.5
수록면
563 - 576 (14page)
DOI
10.9717/kmms.2024.27.5.563

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색
질문

초록· 키워드

오류제보하기
In this paper, we propose a novel generator architecture to translate a selfie photo into an animation face image in an unsupervised way. Recent face translation works often fail to preserve the characteristics of facial parts of selfie photos while transferring to animation images. To cope with this, the proposed method develops new Generative Adversarial Network (GAN) architecture composed of (1) simple cycle contents loss, (2) multi-scale assisted self-attention, and (3) adaptive feature fusion. The goal of using cycle contents loss is to make the GAN preserve a wide range of selfie image contents, which includes hair shape, facial expression and shape of face. In addition, multi-scale assisted self-attention complements the existing attention by using its various scales of self-attentions. Adaptive feature fusion helps model to understand the importance of each self-attention map among the multiple self-attention maps generated by the multi-scale self-attention module. Our extensive and comparative experiments on Selfie2Anime and Photo2Anime datasets have been performed to demonstrate the effectiveness of our method over other state-of-the-art methods.

목차

ABSTRACT
1. 서론
2. 연구 배경
3. 제안한 방법
4. 실험 결과 및 고찰
5. 결론
REFERENCE

참고문헌 (18)

참고문헌 신청

이 논문과 함께 이용한 논문

최근 본 자료

전체보기

댓글(0)

0

UCI(KEPA) : I410-151-24-02-089810064