Nesta seção é possível ver diferentes opções de apresentação do conteúdo. Nesse sentido, basta alternar as abas para visualizar essas diferenças de maneira mais clara.
data(mtcars) # CARREGANDO O CONJUNTO DE DADOS
head(mtcars) # VISUALIZANDO AS PRIMEIRAS LINHAS
# CRIAÇÃO DE UMA NOVA VARIÁVEL DE EFICIÊNCIA ENERGÉTICA
mtcars$eficiencia <- ifelse(mtcars$mpg > 20, "Alta", "Baixa")
# CRIAÇÃO DE VARIÁVEL CONTENDO A RAZÃO PESO/POTÊNCIA
mtcars$wt_hp_razao <- mtcars$wt / mtcars$hp
head(mtcars) # EXIBIÇÃO DA NOVA TABELA
# FILTRAGEM DOS DADOS
mtcars_economico <- mtcars %>%
arrange(desc(mpg)) %>%
filter(mpg > 20, cyl %in% c(4, 6)) %>%
mutate(eficiencia = ifelse(mpg > 25, "Excelente", "Boa"),
relacao_peso_potencia = wt / hp)
head(mtcars_economico) # EXIBIÇÃO DA NOVA TABELA ABAIXO
## mpg cyl disp hp drat wt qsec vs am gear carb eficiencia
## Toyota Corolla 33.9 4 71.1 65 4.22 1.835 19.90 1 1 4 1 Excelente
## Fiat 128 32.4 4 78.7 66 4.08 2.200 19.47 1 1 4 1 Excelente
## Honda Civic 30.4 4 75.7 52 4.93 1.615 18.52 1 1 4 2 Excelente
## Lotus Europa 30.4 4 95.1 113 3.77 1.513 16.90 1 1 5 2 Excelente
## Fiat X1-9 27.3 4 79.0 66 4.08 1.935 18.90 1 1 4 1 Excelente
## Porsche 914-2 26.0 4 120.3 91 4.43 2.140 16.70 0 1 5 2 Excelente
## wt_hp_razao relacao_peso_potencia
## Toyota Corolla 0.02823077 0.02823077
## Fiat 128 0.03333333 0.03333333
## Honda Civic 0.03105769 0.03105769
## Lotus Europa 0.01338938 0.01338938
## Fiat X1-9 0.02931818 0.02931818
## Porsche 914-2 0.02351648 0.02351648
Foi obtida 25.48 como
média de milhas por galão nos
dados observados.
Abaixo segue o código necessário para a exibição de uma tabela interativa que faz uso dos dados manipulados na seção anterior.
instalação e carregamento dos pacotes necessários:
# Instalação do pacote DT
#install.packages("DT") # é necessário somente se ainda não tiver instalado o pacote
# Carregando os pacotes necessários
library(dplyr)
library(DT)
código necessário para a tabela:
### Tabela interativa com o conjunto mtcars_economico
datatable(
mtcars_economico, # objeto que contém os dados
options = list(
pageLength = 5, # define o número de linhas por página
autoWidth = TRUE, # ajusta automaticamente a largura das colunas
searching = TRUE, # ativa a barra de busca
ordering = TRUE # permite ordenar as colunas clicando no título
),
caption = "Tabela interativa com carros econômicos (mpg > 20 e 4 ou 6 cilindros)" #adicionando a legenda com caption
)
Equação de Schrödinger:\[ i \hbar \frac{\partial \Psi (x,t)}{\partial t} = - \frac{\hbar^2}{2m} \frac{\partial^2 \Psi (x,t)}{\partial x^2} + V(x)\Psi(x,t) \]
A Equação de Schrödinger é uma das mais importantes
da física quântica e, hoje, também é fundamental para o
campo emergente da computação quântica.
Ela descreve como o estado quântico de uma partícula
(representado pela função de onda \(\Psi(x,t)\)) evolui ao longo do tempo,
levando em conta a energia cinética (termo com derivada de segunda
ordem) e o potencial \(V(x)\).
Na computação, essa equação serve como base para os algoritmos de simulação quântica e para a modelagem de qubits, que seguem princípios de superposição e interferência descritos exatamente por essa formulação matemática.
Lei de Moore:\[ N(t) = N_0 \times 2^{\frac{t}{T}} \]
A Lei de Moore é uma observação empírica feita por Gordon Moore em 1965, segundo a qual o número de transistores em um chip de circuito integrado dobra a cada período de tempo \(T\) (em torno de 18 a 24 meses).
Essa equação representa um crescimento exponencial e
foi uma das principais leis norteadoras do avanço da computação
moderna, refletindo o aumento contínuo da capacidade de
processamento, redução de custos e miniaturização dos componentes.
Hoje, embora a tendência física tenha desacelerado, o conceito ainda
inspira o desenvolvimento de computação paralela,
arquiteturas heterogêneas e inteligência
artificial de alto desempenho.
Regressão LASSO:\[ {LASSO}({\beta}) = \underset{\beta}{\operatorname{argmin}} \left\{ \frac{1}{2n}\sum_{i=1}^{n}(y_i - \mathbf{x}_i^\top \beta)^2 + \lambda \sum_{j=1}^{p} |\beta_j| \right\} \]
A Regressão LASSO (Least Absolute Shrinkage and Selection Operator) é uma técnica de aprendizado supervisionado usada em análise de dados e machine learning.
Seu objetivo é ajustar um modelo de regressão linear, mas penalizando
os coeficientes \(\beta_j\) com o termo
de regularização \(\lambda \sum_{j=1}^{p}
|\beta_j|\).
Essa penalização faz com que alguns coeficientes se tornem exatamente
zero, permitindo seleção automática de
variáveis — ou seja, o modelo “descarta” atributos pouco
relevantes.
O parâmetro \(\lambda\) controla a
intensidade da penalização:
- valores altos de \(\lambda\) → modelo
mais simples, mas com mais viés;
- valores baixos → modelo mais complexo, com risco de sobreajuste
(overfitting).
Essa equação é essencial em problemas de alta dimensionalidade, como análise de textos, visão computacional e bioinformática.
Função de Custo da Regressão Logística:\[ J(\theta) = -\frac{1}{m}\sum_{i=1}^{m} \left[ y^{(i)}\log(h_\theta(x^{(i)})) + (1 - y^{(i)})\log(1 - h_\theta(x^{(i)})) \right] \]
onde: \[ h_\theta(x) = \frac{1}{1 + e^{-\theta^T x}} \]
Essa é a função de custo utilizada na
regressão logística, um dos modelos de classificação
binária mais comuns em aprendizado de máquina.
Ela mede o erro médio entre as previsões \(h_\theta(x^{(i)})\) e os valores reais
\(y^{(i)}\).
O objetivo do treinamento é minimizar \(J(\theta)\), ajustando os
parâmetros \(\theta\) de forma que as
previsões fiquem mais próximas dos valores reais.
A função logística (ou sigmoide) transforma combinações lineares de
atributos em valores de probabilidade entre 0 e 1,
ideais para classificar eventos, como spam/não-spam, cliente
adimplente/inadimplente, etc.
Regra de Atualização de Pesos em Redes Neurais (Gradiente Descendente):\[ w_{ij}^{(t+1)} = w_{ij}^{(t)} - \eta \frac{\partial J}{\partial w_{ij}} \]
Essa é a regra fundamental de aprendizado em
redes neurais artificiais.
Ela descreve como os pesos sinápticos (\(w_{ij}\)) são atualizados durante
o processo de treinamento com base no gradiente da função de
custo (\(J\)).
O processo repete-se iterativamente até que \(J\) seja minimizado, resultando em uma rede
capaz de generalizar padrões nos dados.
Essa equação é o núcleo de técnicas de deep learning,
como CNNs e RNNs, amplamente usadas em reconhecimento de imagens, voz e
texto.
Capacidade de Canal em Redes de Computadores (Lei de Shannon-Hartley):\[ C = B \log_2 \left(1 + \frac{S}{N} \right) \]
Essa equação, conhecida como Lei de Shannon-Hartley, determina a taxa máxima de transmissão de dados que um canal de comunicação pode suportar sem erro, considerando a presença de ruído.
Em redes de computadores, essa equação é fundamental para:
- dimensionar links de comunicação;
- avaliar limites teóricos de transmissão em fibras ópticas,
Wi-Fi, 5G, etc.;
- planejar sistemas de comunicação eficientes,
garantindo que a taxa de transmissão não ultrapasse a capacidade do
canal.
Basicamente, quanto maior a largura de banda e a relação sinal-ruído (S/N), maior será a capacidade de transmissão de dados, permitindo redes mais rápidas e confiáveis.
A lei ainda continua de pé (Moore 1979);
Ciência de Dados: Uma visão abrangente (Cao 2017);
Ciência de Dados: Uma revisão para os problemas do Big Data (Nasution et al. 2021);
Como a Lei de Moore conduziu as três épocas dos FPGA’s (Trimberger 2018);
Machine Learning na Física, Química, e Ciência de Materiais: Descoberta e Design de Materiais (Ravanhani Schleder and Fazzio 2021);