
이메일: jungwhonam@gmail.com
GitHub: https://github.com/jungwhonam
Scholar: https://scholar.google.com/citations?user=L923bnYAAAAJ
이력서: https://summer-broom-729.notion.site/Jung-Who-Nam-5b832cc47651442eb4b9b9d4526dace4
Relevant Projects
- #0. 핀치 제스처 인식을 활용한 3D 인터랙션 웹 데모 (개인 프로젝트 - 데모)
- #1. 오픈소스 ray tracing 애플리케이션 VR 기능 추가 (ACM PEARC 2023 학회 - 논문)
- #2. 제스처 인식을 활용한 유적 탐험 콘텐츠 개발 (빛고을아트스페이스 전시 2021.12, 국립아시아문화전당 전시 2020.12 - **기사, 기사, 비디오**)
- #3. 다양한 디바이스 간 3D 데이터 관련 커뮤니케이션 (IEEE TVCG 2022 저널 - **비디오, 논문**)
- #4. 데이터 비교 분석용, VR 기반 시각화 및 상호작용 기술 개발 (IEEE VR 2019 학회 - **비디오, 논문, 발표**)
- #5. 태블릿 기반, 산림청 데이터 시각화 VR 어플 개발 (IEEE VIS 2019 학회 포스터 - **비디오, 논문**)
- #6. 두뇌 신경섬유 모델 시각화 (Nature Scientific Reports 2016 저널 - 논문)
#0. 핀치 제스처 인식을 활용한 3D 인터랙션 웹 데모
개인 프로젝트
2023.5 ~ 2024.7 (2개월) - 총 1명: 개발자 (본인)

(좌) Google MediaPipe 관절 데이터, (우) 3D 변환 및 시각화

핀치 제스처 - 한 손으로 3D 오브젝트 이동

핀치 제스처 - 두 손을 벌려서 오브젝트를 확대
손 관절 데이터 3D 변환 및 핀치 제스처 인식 기능 구현
- Google MediaPipe: 구글에서 개발한 일반 카메라를 사용하여 손의 관절 데이터를 검출하는 라이브러리
- 관절 위치 정보를 통해 손과 웹캠의 거리를 예측
- 엄지와 검지의 거리에 기반한 핀치 제스처 인식
- 알고리즘 설정을 위한 dat.gui 기반 GUI 구현
3D 핀치 인식 기능을 활용한 Three.js 기반 웹 데모 제작
- 한 손으로 3D 오브젝트를 이동하는 기능 구현 - 핀치 후 손을 웹캠 쪽으로 움직여 오브젝트를 앞으로 이동
- 두 손을 벌려서 오브젝트를 확대하거나 조이면서 축소하는 기능 구현
사용 기술 및 기기
<aside>
👨💻 GitHub Page 데모 - 웹캠이 있는 컴퓨터나 노트북을 생각하고 개발했습니다.
</aside>
#1. 오픈소스 ray tracing 애플리케이션 VR 기능 추가
텍사스 주립대에서 인텔과 협업하는 프로젝트
2022.10 ~ 2023.7 (9개월) - 총 5명: 1 책임연구원, 3 개발 보조, 1 연구원/개발자 (본인)