연속시스템과 이산시스템 비교

'제어특론' 카테고리의 다른 글

예제  (0) 2014.11.03
Linear Quadratic(LQ) Optimal Control [이산시스템]  (0) 2014.11.03
Linear Quadratic(LQ) Optimal Control  (1) 2014.11.02
Optimal Control(1)  (0) 2014.10.05
Design of state observers(2)  (0) 2014.10.05
Design of state observers(1)  (0) 2014.10.05

선형 2차 시스템의 최적제어에 대해서 다룬다,

앞선 글의 Optimal Control을 먼저 학습해두기 바란다.


1.시작하기에 앞서


LQ Optimal Control은 선형시스템의 상태 피드백 제어의 게인을 구하기 위한 방법이다.

선형시스템을 대상으로 하기 때문에 비선형 시스템이 대상일 경우 선형화를 해야겠다.


Motivation

1. MIMO(Multi Input Multi Output)시스템의 pole placement(특성 방정식의 근을 찾는 것) 상태 피드백 제어는 상태입력의 크기를 고려하지 않기 때문에 상태의 갯수가 커질수록 계산이 간단하지 않다.


ex)


2차 시스템에서 Gain K의 미지수는 4개인데 비해 주어지는 방정식은 2개이다. 이를 풀기 위해서는 여러가지 제한사항이 필요하다.


2. 강인제어와는 달리 최적제어의 목표는 시스템이 목표값에 최소의 Cost(에너지)로 최대한 빠르게 수렴하는 것이다.



시스템의 목표값이 정해지면 이에 접근하기 위해 입력 u가 필요해 진다. 최적제어는 이 목표값에 도달하는 Cost와 시간을 최소화 하는데 목적을 두고있다.


2.LQ 시스템

아래와 같은 시스템에 있어서




평가함수(목적함수)는 다음과 같다.(이전 글의 3.최적제어 시스템의 설계 참조)


tf는 최종시간이다.

목적함수 J의 첫째항은 최종시간 tf에서 목표값 x와 상태값 간의 오차(error)에 대한 penalty 이며 적분항에서 첫째항은 순시적인 에러, 둘째항은 순시적인 제어입력의 규모와 관계되어 있다. 아직은 이해하기 어려우니 S, Q, R이 각각 그런의미라는 것만 기억해 두자.

최적제어문제는 상태(x와 관계된)에러와 제어(u와 관계)에러의 최적의 절충된 값을 찾는것이 요점이다. 따라서 Q와 R의 절대적인 값보다는 이 두 값의 비율이 더욱 중요시 된다.


여기서 S와 Q 는 nxn의 symmetric psd(positive semi-definite) 행렬이며, R은 mxm pd(positive definite)행렬이다.


3.LQ Problem의 Solution

평가함수 J를 최소화 하는 최적제어는 아래와 같다,


H는 Ricatti equation의 해 이며는 Gain이다.

tf는 최종시간이다.


실효 최저코스트는 아래의 식으로 주어진다.


눈여겨 볼것이 있는데 H(tf)가 S로 수렴한다는 사실과 위의 J의 optimal식이 J의 식의 제일 첫항과 관계있다는 것이다.


4. Stationary LQ(Infinite time Hprizon LQ)

 위의 최적제어는 선형상태 피드백제어이지만 피드백 Gain이 시간의 함수임을 알 수 있다. 이것은 시스템의 거동이이 유한한 시간으로 한정되어 있기 때문이다.(duration : tf-t0)

 이 시변 피드백 게인은 Ricatti Equation의 해인 H(t)에 의존하고 있다. 시스템의 H(t)가 유한시간의 Ricatti equation으로 주어지기 때문에 우리는 H(t)을 최종시간(tf)에 역방향을 향한 적분식으로 구할 수 있다.


Ricatti equation는 x와 u에 의존하지 않기 때문에 제어기에 적용되기 전에 off-line 으로 연산될 수 있다.


ex)





Stationary LQ(Infinite time Horizon LQ)

실용적인 관점에서 보아, 우리는 시변인 gain보다는 시불변인 constant한 gain이 더 필요하다.


아래의 세 조건을 보자.

1. 제어대상이 제어가능하다

2. 최종시간 tf가 무한이다. 즉, tf=infinite

3. A, Q를 이루는 L()이 관측가능하다.


위의 세 조건이 만족할 때 아래와 같은 목표함수를 최소화 하는 최적제어를 구할 수 있다.

앞선 예시의 H(t)를 보면 

tf가 infinite라고 하면 tf근처의 시간을 제외한 모든 시간에서 H(t)가 constant함을 알 수 있다.


그리고 constant한 영역에서의 Ricatti equation은 아래와 같다.


목적함수의 식은 아래와 같았다.

이때, closed loop system의 는 점근적으로 안정하다.


x(tf)는 tf가 infinite가 됨에따라 0으로 수렴하게 된다. 결국 적분항만이 남게되어

가 된다.


Linear Quadratic Integral Control(LQI)


(위에서 e만 눈여겨 보면 됨, v->r)


r이 목표값이며 e는 출력값 y와 목표값 r간의 오차임을 숙지하며 r이 시간이 지남에 따라 y에 수렴함을 잊지말자.

[그래프는 나중에 삽입]


PSD, PD


'제어특론' 카테고리의 다른 글

예제  (0) 2014.11.03
Linear Quadratic(LQ) Optimal Control [이산시스템]  (0) 2014.11.03
Linear Quadratic(LQ) Optimal Control  (1) 2014.11.02
Optimal Control(1)  (0) 2014.10.05
Design of state observers(2)  (0) 2014.10.05
Design of state observers(1)  (0) 2014.10.05
  1. 학생1 2019.01.20 01:06

    덕분에 막힌 문제 풀었습니다. 궁금한게 있는데 tf가 infinite인 경우에 h가 서로 다른 2개 근으로 나오면 u-opt를 구하는데 있어서 h 중에 우선순위로 선정해야 할 사항이 있을까요?

항상 그렇지만 방법론적으로 접근한다. 진정 자신의 것으로 하기 위해서는 이론과 원리, 그 의미를 이해하고 있어야함을 잊지말자. 이번장은 특히, 한참 잡아야할 내용을 수업 한시간으로 끝내버렸으니 이론적으로 파악이 되어있지 않다.


--------------------------------------------------------------------------

앞서 확률가우시안 글을 보고왔다는 전제하에 진행한다.


위는 RBF(Radial Basis Function)network 의 도식이다.

Radial : 방사상의.

즉, 방사형 구조를 기본으로 하는 네트워크이다. 1개의 은닉층에는 앞서 배워야 하는 확률가우시안이 적용되어 있다.

RBF는 다음과 같은 특징을 가진다.


1. 은닉층이 1개이다.

2. 유클리디안 거리를 사용한다.

3. 역전파 알고리즘을 사용한다.

4. 안정성 판별이 가능하다.




RBF 네트워크의 은닉층의 값은 아래의 식으로 정해진다.




이 값은 가우시안 확률분포의 확률함수에서 지수함수 부분이다.

이것이 어떤 의미를 갖는지는 통계관련해서 따로 공부하도록 하자(본인도 잘 기억나지 않는다.)

지수함수에 의한 


출력층의 값은 아래와 같다.




여기서 c는 가중치, Φ가 비선형함수로 위의 은닉층의 값이고 b가 bias이다.


훈련과정

훈련과정에서 역전파 알고리즘을 적용하고 있다.



출력과정에서 가중치 c와 bias b는 다음층에 대해서 1:1대응이다. 무슨의미냐 하면




가중치 C와 bias는 시냅스이다.

Cjk 는 j와 k의 조합에 의해 모두 다 독립된 값을 지닌다. 값은 같을수도 있지만 공유하는것 없는 독립객체인 것이다. b또한 마찬가지이다. j와는 관계없지만 k에 대해서 1:1관계를 지닌다.


이에반해 중간값 u와 표준편차 σ는 뉴런Φ안에 있다. 즉, 하나의 뉴런이 다음층의 모든 뉴런으로 공통되게 영향을 미친다.

이 차이는 역전파 알고리즘의 훈련과정에서 가중치 갱신에 차이를 만든다.


그럼 각 요소에 따른 학습식을 살펴보자





 

 

 



 



 

정규분포의 지수함수식에 의해 ∑가 들어간 결과가 나온다.


다음은 RBF와 MLP를 비교한 그래프이다. XOR에 대한 수렴속도를 측정한 것으로 압도적인 수렴속도를 보여준다.

단지 MLP와는 다르게 RBF는 Error가 증가하는 경우도 보이는데, 예상으로는 MLP는 가중치 w와 bias가 그저 줄어들도록 훈련하는데 반해 RBF의 경우 중간값 u와 표준편차 σ를 업데이트 하는 과정에서 Error가 증가하는 경우도 있는것으로 보인다.


아래는 RBF의 Class classification이다.



MLP와 RBF의 비교


 

MLP 

RBF 

Number of Hiddenlayer 

1 or more 

Nonlinear function 

Sigmoid 

Gaussian 

Data Comparison 

Vector product 

Euclidian distance 

 Mathematical analysis

Bad 

Good 

Output 

Linear or Sigmoid 

Linear 

Learning time 

Slow 

Fast 


'지능제어' 카테고리의 다른 글

RBF  (0) 2014.12.07
RBFN 링크  (0) 2014.12.04
RBF(Radial Basis Function) 신경망  (0) 2014.10.27
확률가우시안  (0) 2014.10.27
역전파 알고리즘(BackPropagation)  (0) 2014.10.27
다층신경망[개념]  (0) 2014.10.26

+ Recent posts