DC Field | Value | Language |
---|---|---|
dc.contributor.advisor | 양현승 | - |
dc.contributor.advisor | Yang, HyunSeung | - |
dc.contributor.author | 박준우 | - |
dc.date.accessioned | 2019-08-28T02:45:57Z | - |
dc.date.available | 2019-08-28T02:45:57Z | - |
dc.date.issued | 2018 | - |
dc.identifier.uri | http://library.kaist.ac.kr/search/detail/view.do?bibCtrlNo=733776&flag=dissertation | en_US |
dc.identifier.uri | http://hdl.handle.net/10203/266009 | - |
dc.description | 학위논문(석사) - 한국과학기술원 : 로봇공학학제전공, 2018.2,[ii, 24 p. :] | - |
dc.description.abstract | 지난 몇십년간 많은 행동인식 연구가 존재했다. 하지만 여기서 행동 인식은 3인칭에서의 행동인식이며 1인칭에서의 행동인식 연구는 오래되지않았다. "3인칭과 1인칭의 차이가 존재하지만 행동인식이라는 관점에서 같은 방향으로 접근할 수 있지 않을까?" 라는 의문이 있을 수 있다. 하지만 같은 방향으로 접근하게 되면 1인칭의 큰 특징인 주로 머리에 착용하고 찍는 장비라는 차이에서 높은 성능을 얻을 수 없었다. 특유의 1인칭이라는 제한된 환경에서는 다른 접근 방법이 필요했으며 수많은 연구자들이 시간정보를 1인칭에 맞춰 잘 가공하여 1인칭에 특화된 옵티컬 플로우(optical flow)를 만들어 내거나 다른 카메라 정보들 예를 들면 깊이(depth)카메라을 혼합하여 사용하였다. 하지만 나는 웨어러블 디바이스 카메라 정보 하나만을 사용하며 시간정보를 기존의 tv-l1 옵티컬 플로우(optical flow) 그대로 사용하되 1인칭 맞춤형 딥러닝 네트워크 구조를 제안하여 높은 성능으로 그 결과를 보여주고자 한다. 그러기 위해 나는 짧은 움직임이라는 정보에 주목해서 정보를 이용하고자 했으며, RGB정보와 잘 어울리기 위한 맞춤형 결합(fusion) 기법을 제시하였고 기존의 논문보다 9퍼센트 높은 성능을 보이고 있다. | - |
dc.language | kor | - |
dc.publisher | 한국과학기술원 | - |
dc.subject | 1인칭 카메라▼a액션카메라▼a행동인식▼a딥러닝▼aLSTM▼a결합(Fusion)▼a짧은 움직임▼a옵티컬 플로우▼a투 스트림 | - |
dc.subject | Egocentric video▼afirst person video▼awearable device camera▼aaction recognition▼abehavior recognition▼adeep learning▼aLSTM▼aFusion▼ashort movement▼aoptical flow▼atwo stream | - |
dc.title | LSTM을 이용한 짧은 동작 기반 특징과 결합을 활용한 1인칭 행동인식 | - |
dc.title.alternative | Egocentric activity recognition based on short-movements aggregation using LSTM and fusion | - |
dc.type | Thesis(Master) | - |
dc.identifier.CNRN | 325007 | - |
dc.description.department | 한국과학기술원 :로봇공학학제전공, | - |
dc.contributor.alternativeauthor | Park, JoonWoo | - |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.