DC Field | Value | Language |
---|---|---|
dc.contributor.advisor | 안재명 | - |
dc.contributor.advisor | Ahn, Jae Myung | - |
dc.contributor.author | 최의환 | - |
dc.date.accessioned | 2018-06-20T06:26:00Z | - |
dc.date.available | 2018-06-20T06:26:00Z | - |
dc.date.issued | 2017 | - |
dc.identifier.uri | http://library.kaist.ac.kr/search/detail/view.do?bibCtrlNo=675548&flag=dissertation | en_US |
dc.identifier.uri | http://hdl.handle.net/10203/243561 | - |
dc.description | 학위논문(석사) - 한국과학기술원 : 항공우주공학과, 2017.2,[iii, 53 p. :] | - |
dc.description.abstract | 본 논문에서는 단일 무인기(single UAV)의 자율적인 정찰 임무 계획 과정을 마르코프 의사 결정 과정(Markov Decision Process, MDP)로 정식화 한다. 무인기 임무에 적합한 상태 집합(state space)과 행동 집합(action space)을 정의하고, 고도 변화, 연료 소모, 격추 확률, 정찰 성공 확률 등 임무 불확실성(mission uncertainties)이 종합적으로 반영된 천이 확률 모델(transition probability model)과 보상 모델(reward model)을 제시한다. 그 후 가치 반복(Value Iteration)을 통해 본 MDP 모델의 최적 가치(optimal value)와 최적 정책(optimal policy)을 산출하고, 그 타당성을 확인하기 위해 다양한 무인기 임무 시뮬레이션 결과를 제시한다. 이와 함께 본 MDP 문제의 계산량을 줄이기 위해 천이 확률 모델과 보상 모델을 바탕으로 한 효과적인 경로점 샘플링 알고리즘을 제시한다. | - |
dc.language | kor | - |
dc.publisher | 한국과학기술원 | - |
dc.subject | 마르코프 의사 결정 과정(MDP) | - |
dc.subject | 무인기 임무 계획 | - |
dc.subject | 순차적 의사결정 과정 | - |
dc.subject | 경로점 샘플링 | - |
dc.subject | WSMC 알고리즘 | - |
dc.subject | Markov Decision Process (MDP) | - |
dc.subject | UAV mission planning | - |
dc.subject | sequential decision making | - |
dc.subject | waypoint sampling | - |
dc.subject | WSMC algorithm | - |
dc.title | Markov decision process 기반의 자율 무인기 임무 계획 | - |
dc.title.alternative | Autonomous UAV mission planning based on markov decision process | - |
dc.type | Thesis(Master) | - |
dc.identifier.CNRN | 325007 | - |
dc.description.department | 한국과학기술원 :항공우주공학과, | - |
dc.contributor.alternativeauthor | Choi, Ui Hwan | - |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.