Support Vector Machine e Random Machines em Análise de Sobrevivência

Mariana Costa Freitas

O que é SVM?

O que é SVM?

SVM Linear: “Hard Margin”

\[\begin{aligned} & \min_{\mathbf{w}} \quad \frac{1}{2} \|\mathbf{w}\|^2 \\ & \text{sujeito a} \quad y_i (\mathbf{w} \cdot \mathbf{x}_i + b) \geq 1 \quad \forall i = 1, \dots, n \end{aligned}\]

Onde:

Assim:

SVM Linear: “Hard Margin”

SVM Linear: “Soft Margin”

SVM Linear: “Soft Margin”

Introduz variáveis de folga (\(\xi_i\)) para permitir erros: \[ \min_{\mathbf{w}, b} \frac{1}{2} \|\mathbf{w}\|^2 + C \sum_{i=1}^n \xi_i \] - \(C\): Hiperparâmetro, “custo”/penalização por violar a margem. Um valor C maior estreita a margem para a classificação incorreta mínima, enquanto um valor C menor a amplia, permitindo a classificação incorreta de mais dados.

“Truque do Kernel”

“Truque do Kernel”

Support Vector Machine para Regressão (SVR)

Support Vector Machine para Regressão (SVR)

Support Vector Machine para Regressão (SVR)

\[\begin{aligned} \min_{\mathbf{w}, b, \xi, \xi^*} & \quad \frac{1}{2} \|\mathbf{w}\|^2 + C \sum_{i=1}^n (\xi_i + \xi_i^*) \\ \text{sujeito a} & \quad y_i - (\mathbf{w}^T \mathbf{x}_i + b) \leq \epsilon + \xi_i \\ & \quad (\mathbf{w}^T \mathbf{x}_i + b) - y_i \leq \epsilon + \xi_i^* \\ & \quad \xi_i, \xi_i^* \geq 0 \quad \forall i = 1, \dots, n \end{aligned}\]

Onde:

Análise de Sobrevivência: Conceitos Básicos

Análise de Sobrevivência: Conceitos Básicos

Survival Support Vector Regression (SSVR)

Survival Support Vector Regression (SSVR)

\[\begin{aligned} &\min_{\mathbf{w}, b, \xi, \xi^*} \frac{1}{2} \| \mathbf{w} \|^2 + C \sum_{i=1}^n (\xi_i + \xi_i^*) \\ \text{sujeito a} & \quad y_i - (\mathbf{w}^T \mathbf{x}_i + b) \leq \epsilon + \xi_i \\ & \delta_i\quad (\mathbf{w}^T \mathbf{x}_i + b) - y_i \leq \epsilon + \xi_i^* \\ & \quad \xi_i, \xi_i^* \geq 0 \quad \forall i = 1, \dots, n \end{aligned}\]

A segunda restrição

Random Machines

Random Machines Conceitos Auxiliares: Bagging

Random Machines Conceitos Auxiliares: Bagging

Sejam:

Queremos comparar:

\[ \text{MSE}(\theta) = \mathbb{E}\left[ (Y - \theta(x, L))^2 \right] \quad \text{e} \quad \text{MSE}(\theta_A) = \mathbb{E}\left[ (Y - \theta_A(x))^2 \right] \]

Expansão do EQM do preditor individual

\[\begin{align*} \mathbb{E}\left[ (Y - \theta(x, L))^2 \right] &= \mathbb{E}\left[ Y^2 - 2Y \theta(x, L) + \theta(x, L)^2 \right] \\ &= Y^2 - 2Y \mathbb{E}_L[\theta(x, L)] + \mathbb{E}_L[\theta(x, L)^2] \end{align*}\]

EQM do preditor agregado (bagged)

\[\begin{align*} \mathbb{E}\left[ (Y - \theta_A(x))^2 \right] &= \mathbb{E}\left[ Y^2 - 2Y \theta_A(x) + \theta_A(x)^2 \right] \\ &= Y^2 - 2Y \theta_A(x) + \theta_A(x)^2 \end{align*}\]

Random Machines Conceitos Auxiliares: Bagging

Aplicando a desigualdade de Jensen

Como \(\theta_A(x) = \mathbb{E}_L[\theta(x, L)]\), pela desigualdade de Jensen:

\[ \mathbb{E}_L[\theta(x, L)^2] \geq \left( \mathbb{E}_L[\theta(x, L)] \right)^2 = \theta_A(x)^2 \]

Logo:

\[ \mathbb{E}\left[ (Y - \theta(x, L))^2 \right] \geq \mathbb{E}\left[ (Y - \theta_A(x))^2 \right] \]

Random Machines: Algoritmo

\[ \lambda_r = \frac{log(\frac{ACC_r}{1-ACC_r})}{\sum_1^rlog(\frac{ACC_r}{1-ACC_r})}, \]

Random Machines: Algoritmo

Random Machines: Algoritmo

Iniciação Científica: Aplicação em Dados Oncológicos

Referências