Método dos mínimos quadrados

\[ y_i = \beta + \alpha x_i + e_i \]

\[ SSE = \sum_{i=1}^{N} e_i^2 \]

\[ \frac{\partial SSE}{\partial \beta}(\alpha,\beta) = \frac{\partial}{\partial \beta} \bigg(\sum_{i=1}^{N} (y_i - \beta - \alpha x_i)^2\bigg) = -2\sum_{i=1}^{N} (y_i - \beta - \alpha x_i)\]

\[ \frac{\partial SSE}{\partial \alpha}(\alpha,\beta) = \frac{\partial}{\partial \alpha} \bigg(\sum_{i=1}^{N} (y_i - \beta - \alpha x_i)^2\bigg) = -2\sum_{i=1}^{N} x_i(y_i - \beta - \alpha x_i)\]

Isto ? equivalente a \(\begin{cases} \frac{\partial SSE}{\partial \beta}(\alpha,\beta) = 0 \\ \frac{\partial SSE}{\partial \alpha}(\alpha,\beta) = 0 \end{cases}\). Deta forma, chega-se ?s seguintes equa??es:

\[\alpha = \sum_{i=1}^{N} y_i - \beta\bar{x}\]

\[\beta = \frac{\sum_{i=1}^{N} (x_i-\bar{x})(y_i-\bar{y})}{\sum_{i=1}^{N} (x_i-\bar{x})^2}\]

Função de verossimilhança

Método da Máxima Verossimilhança

Pressuposto 1: Assume-se que a distribuição dos erros experimentais no domínio de análise é conhecida.

Pressuposto 2: Os desvios (erros) experimentais apresentam uma distribuição de probabilidade normal (gaussiana).

\[p(Z^e | Z, V_Z) = \frac{1}{\sqrt{2\cdot \pi \cdot det(V_Z)}}\cdot e^{-\frac{1}{2} \left ( Z^e -Z\right )^T\cdot V_{Z}^{-1}\cdot \left ( Z^e -Z\right )}\]

\[Z^T = \begin{bmatrix} X^T & Y^T \end{bmatrix}\]

Pressuposto 3: Os experimentos são realizados de forma independente, não há correlação entre eles.

\[\mathcal{L}(Z, V_Z | Z^e) = \prod_{i = 1}^{n}p_i(Z_{i}^{e} | Z_i, V_{Zi})\]

Pressuposto 4: As medições das variáveis independentes não estão correlacionadas com as medições das variáveis dependentes.

\[\mathcal{L}(Z, V_Z | Z^e) =\prod_{i = 1}^{n}\left [p_i(X_{i}^{e} | X_i, V_{Xi}\cdot p_i(Y_{i}^{e} | Y_i, V_{Yi}) \right ]\]

Pressuposto 5: O valor das variáveis independentes é conhecido com grande precisão.

\[\left ( x^e-x \right )\approx 0\]

\[\mathcal{L}(Z, V_Z | Z^e) =\prod_{i = 1}^{n}p_i(Y_{i}^{e} | Y_i, V_{Yi})\]

\[\mathcal{L}(Z, V_Z | Z^e) =\prod_{i = 1}^{n}\prod_{j = 1}^{n_y}p_{yij}(Y_{ij}^{e} | Y_{ij}, V_{Yij})\]

Pressuposto 6: As medições experimentais podem ser realizadas de forma independente.

\(V_{Yij} = \sigma_{yij}^{2}\)

\[\mathcal{L}(Z, V_Z | Z^e) =\prod_{i = 1}^{n}\prod_{j = 1}^{n_y}p_{yij}(Y_{ij}^{e} | Y_{ij}, \sigma_{yij}^{2})\]

\[\mathcal{L}(Z, V_Z | Z^e) =\prod_{i = 1}^{n}\prod_{j = 1}^{n_y}\frac{1}{\sqrt{2\cdot \pi \cdot \sigma_{yij}^{2}}}\cdot e^{-\frac{1}{2}\cdot \frac{\left (Y_{ij}^{e}-Y_{ij} \right )^2}{\sigma_{yij}^{2}}}\]

Pressuposto 7: Admite-se válida a hipótese do modelo ideal.

\[Y^{m} = f(X^{m}, \Theta )\]

\[\mathcal{L}(Z^{m}, V_Z | Z^e) =\prod_{i = 1}^{n}\prod_{j = 1}^{n_y}\frac{1}{\sqrt{2\cdot \pi \cdot \sigma_{yij}^{2}}}\cdot e^{-\frac{1}{2}\cdot \frac{\left (Y_{ij}^{e}-Y_{ij}^{m}(X^{m}, \Theta) \right )^2}{\sigma_{yij}^{2}}}\]

Pressuposto 8: É válida a hipótese do experimento bem-realizado.

\[F_{obj} = ln\left [ \mathcal{L}(Z^{m}, V_Z | Z^e) \right ]\]

\[F_{obj} = \sum_{i=1}^{n}\sum_{j=1}^{n_{y}}ln\left [ \frac{1}{\sqrt{2\cdot \pi \cdot \sigma_{yij}^{2}}} \right ]-\frac{1}{2}\sum_{i=1}^{n}\sum_{j=1}^{n_{y}}\frac{\left (Y_{ij}^{e}-Y_{ij}^{m}(X^{m}, \Theta) \right )^2}{\sigma_{yij}^{2}}\]

\[\max\left \{ F_{obj}\right \} = \underset{\Theta}{\arg\max}\left \{ -\frac{1}{2}\sum_{i=1}^{n}\sum_{j=1}^{n_{y}}\frac{\left (Y_{ij}^{e}-Y_{ij}^{m}(X^{m}, \Theta) \right )^2}{\sigma_{yij}^{2}}\right \}\]

\[\max\left \{ F_{obj}\right \} = \underset{\Theta}{\arg\min}\left \{ \sum_{i=1}^{n}\sum_{j=1}^{n_{y}}\frac{\left (Y_{ij}^{e}-Y_{ij}^{m}(X^{m}, \Theta) \right )^2}{\sigma_{yij}^{2}}\right \}\]

Pressuposto 9: O modelo proposto possui uma única variável predita.

\[\max\left \{ F_{obj}\right \} = \underset{\Theta}{\arg\min}\left \{ \sum_{i=1}^{n}\frac{\left (y_{ij}^{e}-y_{ij}^{m}(X^{m}, \Theta) \right )^2}{\sigma_{yij}^{2}}\right \}\]

Pressuposto 10: Os erros de medição são constantes em todo domínio de análise.

\[\max\left \{ F_{obj}\right \} = \underset{\Theta}{\arg\min}\left \{ \sum_{i=1}^{n}\left (y_{ij}^{e}-y_{ij}^{m}(X^{m}, \Theta) \right )^2\right \} \equiv \text{MMQ}\]