스터디 노트
article thumbnail

Optimal Control은 Dynamic Control System에서 Goal state와 Current state의 error를 Performance measure(Cost function)로 표현하고 이를 최소화하는 최적의 Control variable, 'u'를 찾는 문제

State Equation, Performance measure(J) 정의

  • mxm Square Matrix H, Q는 positive semi definite
    • H,Q가 모든 벡터 x에대해서 transpose(x)*Hx>=0
  • nxn Square Matrix R positive definite
    • R가 모든 벡터 u에대해서 transpose(u)*Hu>0
State Equation
Performance measure

→We can minimize J


Principle of optimality, Taylor Expansion을 이용해 Performance measure을 Partial Differential Equation으로 정리

  • Recurrence Equation을 편미분 형태로 표현하고 best control option을 선택하기위함
  • Hamiltonian 정의

Hamiltonian을 최소화 하는 입력u*를 찾고 Hamilton-Jaconbi-Bellman Equation에 u*를 대입

  • Final boundary condition으로 부터 J*의 기본적인 form을 추측해볼 수 있음

Riccati differential equation으로부터 Algebraic Riccati Equation


profile

스터디 노트

@myeongkyun

포스팅이 좋았다면 "좋아요❤️" 또는 "구독👍🏻" 해주세요!