[최적화] SDP relaxation

이우준·2021년 10월 28일
0

Optimization

목록 보기
4/6
post-custom-banner

Convex_diagram_2

이전 포스팅에 이어 이번에는 SDP의 응용 방법에 대해 알아보자. 여기서 다룰 내용은 총 세 가지이다.

  1. SDP가 중요하게 적용될 수 있는 두 가지 settings
  2. SDP relaxation
  3. MAXCUT problem

Two settings of SDP's interest

SDP가 잘 적용될 수 있는 문제는 무엇일까? 이에 대한 대답은 다음과 같다.

  • A class of very difficult non-convex problems
    SDP relaxation 을 이용하면 그러한 어려운 문제들을 잘 근사 할 수 있다.
  • Matrix가 가진 eigenvalue의 최대값 혹은 nuclear norm이 우리가 최소화 하고 싶은 값인 problems
    \rightarrow Nuclear norm A:=iσi(A)\vert \vert A \vert \vert_{*} := \sum_i \sigma_i(A), 이때 σi(A)\sigma_i(A)AAii 번째 singular value를 의미한다.
    이와 관련된 가장 유명한 application은 matrix completion 인데, 이는 일부분만 공개된 행렬에서 missing entries를 확인하는 것이 목표인 문제이다.

본 강의에서는 이 중 SDP relaxation에 대해서만 다루었다. 이제 SDP relaxation을 적용할 수 있는 예시 문제를 통해 이를 더 자세히 알아보자.

MAXCUT problem

(SDP relaxation이 유용하게 적용될 수 있는 문제들 중 하나)

본 문제의 목적은 cut을 최대화 시킬 수 있는 set을 찾는 것 이다. 이 말의 의미가 무엇인지 알기 위해서는 먼저 set과 cut이 무엇인지를 알 필요가 있다.

먼저 해당 용어들은 graph를 다룰 때 등장하는데, graph는 edge set (edge, 간선) 과 vertex set (node, 정점) 두 가지로 이루어져 있다. MAXCUT 문제에서는 각 edge가 direction을 가지고 있지 않는 undirected graph 를 다루는데, E\mathcal{E} 안의 edge 중 하나인 (1,2)(1,2)를 예로 들면 (1,2)=(2,1)(1,2)=(2,1) 임을 의미한다.

이제 아래의 그림을 보자. 이 경우 edge set은 다음과 같다.

E={(1,2),(1,4),(1,5),(2,3),(2,4),(3,6),(4,5)}\mathcal{E} = \left\{ (1,2), (1,4), (1,5), (2,3), (2,4), (3,6), (4,5) \right\}

그림에는 weight (연결에 대한 가중치)도 같이 표기되어 있는데, 이는 edge와 같이 연결되는 개념이다. 따라서 아래 예제에서 weight의 개수는 총 7개 이다. (총 edge 개수와 동일, 보라색 선은 그 중 일부이다.)

MAXCUT

그렇다면 set과 cut은 무엇을 의미할까. 먼저 set SS 는 vertex (꼭지점) set V\mathcal{V} 의 subset을 의미한다. 예를 들면, 위의 그림에서 set은 S={1,3,5}VS= \{ 1, 3, 5\} \subset \mathcal{V} 이다. 다음으로 cut은 set SS 와 complement ScS^{\mathsf{c}} 를 잇는 edge들이 가지고 있는 weights의 총합 (보라색 표시)으로 정의된다. 이 역시 같은 그림을 통해 예를 들면, crossing edge는 {(5,4),(1,4),(3,6),(1,2),(3,2)}\{ (5,4) , (1,4) ,(3,6) ,(1,2) ,(3,2) \} 임을 알 수 있다. 따라서, set SS 에 대한 cut은 아래와 같이 정의된다. (영어로는 'the cut w.r.t. the set SS')

Cut(S)=w54+w14+w36+w12+w32\textrm{Cut}(S) = w_{54} + w_{14} + w_{36} + w_{12} + w_{32}

MAXCUT via optimization

MAXCUT을 위한 optimization problem을 정의하기 위해서는 먼저, 적절한 optimization variable을 선택해야 한다. 그런데 problem을 통해 우리는 cut이 set의 선택에 따라 달라지는 것을 알 수 있다. 문제의 목적은 cut을 최대로 만들 수 있는 set을 찾는 것이다. 따라서, 새로운 변수 xix_i를 다음과 같이 정의해보자. 이는 node ii가 set SS에 있는지 알려주는 변수이다.

xi={+1,xS1,otherwise.x_i = \begin{cases} +1, & x\in S \\ -1, & \text{otherwise.} \end{cases}

주목할 부분은 xixjx_i \neq x_j 인 경우이다. 이때는 edge (i,j)(i,j) 가 두 set, SSScS^{\mathsf{c}} 를 잇고 있다는 뜻이기 때문에 wijw_{ij}Cut(S)\textrm{Cut}(S)에 기여하고 있음을 의미한다. 반대로 만약 xi=xjx_i = x_j 라면, cut 값에 영향을 주지 못하게 된다. 이를 이용하면 우리는 다음의 optimization 식을 세울 수 있다.

maxxi i,j12wij(1xixj): ()xi2=1,(i=1,,d)\begin{aligned} \max_{x_i}& \textrm{ } \sum\limits_{i,j} \frac{1}{2} w_{ij}(1-x_ix_j): \quad \quad \cdots \textrm{ } (*) \\ &\quad x_i^2 = 1, \quad (i=1,\cdots,d) \end{aligned}

위의 식에서 1/21/2 이 곱해진 이유는 xixjx_i \neq x_j 일 때 wijw_{ij} 만을 얻기 위함이고, xi2=1x_i^2 = 1 이라는 constraint는 xix_i가 오직 +1+1 혹은 1-1 값만 갖도록 만들기 위함이다.

A translation technique: Lifting

()(*) 의 objective function에는 xixjx_i x_j 같은 quadratic term이 존재한다. 또한 quadratic equality-constraint가 있는 것도 확인할 수 있는데, 지금까지 배웠던 convex standard form 중 어떤 것도 이와 matching 되지 않는다. 따라서 이러한 원하지 않는 term을 원하는 형식 (e.g. affine term) 으로 바꾸는 과정이 필요한데, 이때 쓰이는 technique이 lifting 이다. 여기서 lifting은 optimization variable이 속해 있는 공간을 끌어올린다는 의미로 사용되었는데, 빠른 이해를 위해 예시를 보자.

앞선 예제에서 optimization variable xix_i 들은 vector x:=[x1,,xd]x := \left[ x_1, \cdots, x_d \right]^{\intercal} 로 표현될 수 있다. 여기서 lifting은 vector xx를 더 고차원의 entity 즉, matrix로 변환하는 것을 의미한다. 더 구체적으로는 (i,j)(i,j)-entry XijX_{ij}xixjx_i x_j 로 정의된 matrix XX를 생각해볼 수 있을 것이다.

이를 보다 간결하게 표현하는 방법은 다음과 같다.

X=[x11x12x1dx21x22x2dxd1xd2xdd]=[x1x2xd][x1x2xd]=xxX = \begin{bmatrix} x_{11}& x_{12}& \cdots & x_{1d}\\ x_{21}& x_{22} & \cdots & x_{2d} \\ \vdots& \vdots & \ddots & \vdots \\ x_{d1}& x_{d2} & \cdots & x_{dd} \\ \end{bmatrix} = \begin{bmatrix} x_{1} \\ x_{2} \\ \vdots \\ x_{d} \end{bmatrix} \begin{bmatrix} x_{1}& x_{2}& \cdots &x_{d} \end{bmatrix} = x x^{\intercal}

Matrix XX의 rank는 1이고, eigen-value는 xxx^{\intercal}x 이다.
Proof:
Xx=(xx)x=x(xx)=(xx)xX\textcolor{blue}{x} = ( x x^{\intercal}) x = x (x^{\intercal} x) = (x^{\intercal} x) \textcolor{blue}{x}
이때 eigen-value xxx^{\intercal} x는 non-negative scalar 값이다.
따라서, XX의 eigen-vector와 eigen-value는 각각 xx(xx)(x^{\intercal}x) 이다.

이제 XX의 등장으로, 기존의 constraint는 다음과 같이 대체될 수 있다.

Xii=1,X0,rank(X)=1X_{ii} = 1, \quad X \succeq 0, \quad \textrm{rank}(X) = 1

여기서 'rank(X)=1\textrm{rank}(X) = 1' 조건이 생긴 이유가 납득되지 않을 수 있다.
이는 X=xxX=x x^{\intercal} 과 같은 lifting을 진행할 때 주의할 점이 있기 때문인데, 우린 새로운 optimization variable을 도입할 때마다 그로 인한 추가 constraint가 생기지는 않는지 따져봐야 한다.
본 예제에서는 XX 가 새로운 variable로 정의되었는데, 강의에서의 표현을 빌리면 xxx x^{\intercal} 과 같은 형태는 매우 particular 한 (혹은 structured 된) 것이다.
이렇게 되면 보통 새로운 constraint가 등장하는데, 이러한 맥락에서 추가된 것이라 보면 된다.

이어서 정리하면 새로운 matrix variable XX를 사용하여, ()(*) 을 아래와 같이 다시 쓸 수 있다.

p:=maxX i,j12wij(1Xij): ()Xii=1,(i=1,,d)  affineX0(LMI)rank(X)=1(rank constraint)\begin{aligned} p^* &:= \max_{X} \textrm{ } \sum\limits_{i,j} \frac{1}{2} w_{ij}(1-X_{ij}): \quad \quad \cdots \textrm{ } (**) \\ &\quad X_{ii} = 1, \quad (i=1,\cdots,d) \textrm{ }\textrm{ } \rightarrow \text{affine} \\ &\quad X \succeq 0 \quad (\textrm{LMI}) \\ &\quad \textcolor{red}{\text{rank}(X) = 1 \quad (\text{rank constraint})} \end{aligned}

참고로 constraint가 affine 인 이유는, 새로운 matrix variable XX를 그 자체로 생각하기 때문이다.

또한 X0X \succeq 0 역시 LMI 인데, 먼저 d=2d=2 인 경우를 예로 들어보자.

X=[X11X12X21X22]=X11[1000]+X12[0110]+X22[0001]X = \begin{bmatrix} X_{11}&X_{12} \\ X_{21}&X_{22} \\ \end{bmatrix} = X_{11} \begin{bmatrix} 1&0 \\ 0&0 \\ \end{bmatrix} + X_{12} \begin{bmatrix} 0&1 \\ 1&0 \\ \end{bmatrix} + X_{22} \begin{bmatrix} 0&0 \\ 0&1 \\ \end{bmatrix}

이는 XijX_{ij} 에 대해 affine 임이 명확하고, 연관된 (곱해진) 행렬들은 모두 symmetric 하다. 이러한 방식으로 우리는 X0X \succeq 0 가 LMI 임을 보일 수 있다.

SDP relaxation

()(**) 는 사실 아직 SDP가 아니다. Objective function과 첫 번째 equality constraint가 affine 이고, 두 번째 inequality constraint는 LMI 이지만 rank 조건을 다룰 수 없기 때문이다.

이럴 때 적용하는 기술이 SDP relaxation 이다. Idea는 간단하다. 그냥 rank constraint를 무시하는 것이기 때문이다.

Constraint가 무시된다는 것은 곧, optimization을 위해 탐색할 수 있는 공간이 더 넓어졌다는 것이다. 그래서 이를 relaxation 이라 표현한다. 아무튼 SDP relaxation을 적용하면 ()(**)는 아래와 같이 바뀐다.

pSDP:=maxX i,j12wij(1Xij):Xii=1,(i=1,,d)  affineX0(LMI)rank(X)=1(rank constraint)\begin{aligned} p^*_{\text{SDP}} &:= \max_{X} \textrm{ } \sum\limits_{i,j} \frac{1}{2} w_{ij}(1-X_{ij}): \\ &\quad X_{ii} = 1, \quad (i=1,\cdots,d) \textrm{ }\textrm{ } \rightarrow \text{affine} \\ &\quad X \succeq 0 \quad (\textrm{LMI}) \\ &\quad \xcancel{\text{rank}(X) = 1 \quad (\text{rank constraint})} \end{aligned}

이때 우리는 maximization problem을 위한 relaxation 을 적용했기 때문에 당연히 pSDPpp^*_{\text{SDP}} \geq p^* 이다.

보통 pSDPp^*_{\text{SDP}}pp^* 의 차이는 그렇게 크게 나지 않는다.
참고로 Nesterov 라는 러시아 수학자가 이에 대한 worst-case bound를 설정했는데, 식은 다음과 같다.
(pSDPp)/pSDPπ210.571\Rightarrow \left( p^*_{\textrm{SDP}} - p^* \right) / p^*_{\textrm{SDP}} \leq \frac{\pi}{2}-1 \approx 0.571

Principal component analysis (PCA)

그런데 우리가 relaxation을 통해 얻은 XSDPX^*_{\text{SDP}} 는 원하는 xxx x^{\intercal}의 형태가 아닐 수도 있다. 그렇다면 XSDPX^*_{\text{SDP}} 로부터 xx^* 를 어떻게 구할 수 있을까?

이를 해결하기 위한 방법 중 하나가 PCA 이다. 과정은 다음과 같다.

먼저 eigen-value decomposition을 적용하여 다음을 얻자.

XSDP=Udiag(λ1,λ2,,λd)U,(where λ1λ2λd0)X^*_{\textrm{SDP}} = U \textrm{diag} (\lambda_1, \lambda_2, \cdots, \lambda_d) U^{\intercal}, \quad (\textrm{where } \lambda_1 \geq \lambda_2 \geq \cdots \geq \lambda_d \geq 0)

Non-zero eigen-value의 개수는 matrix의 rank와 같다. 여기서의 idea는 가장 큰 (dominant 한) 첫 번째 eigen-value λ1\lambda_1 만 살리고, 나머지 값은 다 무시하여 다음과 같이 근사하는 것이다.

X~SDP:=Udiag(λ1,0,,0)U\tilde{X}^*_{\textrm{SDP}} := U \textrm{diag} (\lambda_1, 0, \cdots, 0) U^{\intercal}

이렇게 하면 우리는 X~SDP\tilde{X}^*_{\textrm{SDP}} 의 rank를 1로 보장할 수 있어서, xx^*를 구할 수 있다.

참고로, QP나 SOCP 처럼 SDP도 general closed-form solution이 존재하지 않는다. 따라서 strong duality 나 KKT conditions 에 의존하여 문제를 해결해야 하는데, 이는 추후에 알아보자.

Reference

카이스트 서창호 교수님 강의 - EE424: 최적화개론 lecture 13.

post-custom-banner

0개의 댓글