1) Carregue um conjunto de dados simples. Realize manipulação simples nos dados (por exemplo, ordenação, filtragem, criação de novas variáveis, etc.).

Nesta seção é possível ver diferentes opções de apresentação do conteúdo. Nesse sentido, basta alternar as abas para visualizar essas diferenças de maneira mais clara.

Exibição de código apenas, sem retorno.

data(mtcars) # CARREGANDO O CONJUNTO DE DADOS

head(mtcars) # VISUALIZANDO AS PRIMEIRAS LINHAS

# CRIAÇÃO DE UMA NOVA VARIÁVEL DE EFICIÊNCIA ENERGÉTICA
mtcars$eficiencia <- ifelse(mtcars$mpg > 20, "Alta", "Baixa") 

# CRIAÇÃO DE VARIÁVEL CONTENDO A RAZÃO PESO/POTÊNCIA
mtcars$wt_hp_razao <- mtcars$wt / mtcars$hp 

head(mtcars) # EXIBIÇÃO DA NOVA TABELA

# FILTRAGEM DOS DADOS
mtcars_economico <- mtcars %>%
  arrange(desc(mpg)) %>%                   
  filter(mpg > 20, cyl %in% c(4, 6)) %>%   
  mutate(eficiencia = ifelse(mpg > 25, "Excelente", "Boa"), 
         relacao_peso_potencia = wt / hp) 

Exibição de código e retorno:

head(mtcars_economico) # EXIBIÇÃO DA NOVA TABELA ABAIXO
##                 mpg cyl  disp  hp drat    wt  qsec vs am gear carb eficiencia
## Toyota Corolla 33.9   4  71.1  65 4.22 1.835 19.90  1  1    4    1  Excelente
## Fiat 128       32.4   4  78.7  66 4.08 2.200 19.47  1  1    4    1  Excelente
## Honda Civic    30.4   4  75.7  52 4.93 1.615 18.52  1  1    4    2  Excelente
## Lotus Europa   30.4   4  95.1 113 3.77 1.513 16.90  1  1    5    2  Excelente
## Fiat X1-9      27.3   4  79.0  66 4.08 1.935 18.90  1  1    4    1  Excelente
## Porsche 914-2  26.0   4 120.3  91 4.43 2.140 16.70  0  1    5    2  Excelente
##                wt_hp_razao relacao_peso_potencia
## Toyota Corolla  0.02823077            0.02823077
## Fiat 128        0.03333333            0.03333333
## Honda Civic     0.03105769            0.03105769
## Lotus Europa    0.01338938            0.01338938
## Fiat X1-9       0.02931818            0.02931818
## Porsche 914-2   0.02351648            0.02351648

Exibição de retorno vindo da manipulação de dados no meio do texto:

Foi obtida 25.48 como média de milhas por galão nos dados observados.

2) Utilize o pacote DT para criar uma tabela interativa, proporcionando funcionalidades como ordenação, busca e paginação.

Abaixo segue o código necessário para a exibição de uma tabela interativa que faz uso dos dados manipulados na seção anterior.

instalação e carregamento dos pacotes necessários:

# Instalação do pacote DT
#install.packages("DT") # é necessário somente se ainda não tiver instalado o pacote

# Carregando os pacotes necessários
library(dplyr)
library(DT)

código necessário para a tabela:

### Tabela interativa com o conjunto mtcars_economico
datatable(
mtcars_economico, # objeto que contém os dados
options = list(
pageLength = 5, # define o número de linhas por página
autoWidth = TRUE, # ajusta automaticamente a largura das colunas
searching = TRUE, # ativa a barra de busca
ordering = TRUE # permite ordenar as colunas clicando no título
),
caption = "Tabela interativa com carros econômicos (mpg > 20 e 4 ou 6 cilindros)" #adicionando a legenda com caption
)

3) Escreva e apresente cinco equações complexas utilizando a sintaxe do LaTeX. Forneça o significado para cada equação.

Equação de Schrödinger:

\[ i \hbar \frac{\partial \Psi (x,t)}{\partial t} = - \frac{\hbar^2}{2m} \frac{\partial^2 \Psi (x,t)}{\partial x^2} + V(x)\Psi(x,t) \]

A Equação de Schrödinger é uma das mais importantes da física quântica e, hoje, também é fundamental para o campo emergente da computação quântica.
Ela descreve como o estado quântico de uma partícula (representado pela função de onda \(\Psi(x,t)\)) evolui ao longo do tempo, levando em conta a energia cinética (termo com derivada de segunda ordem) e o potencial \(V(x)\).

Na computação, essa equação serve como base para os algoritmos de simulação quântica e para a modelagem de qubits, que seguem princípios de superposição e interferência descritos exatamente por essa formulação matemática.


Lei de Moore:

\[ N(t) = N_0 \times 2^{\frac{t}{T}} \]

A Lei de Moore é uma observação empírica feita por Gordon Moore em 1965, segundo a qual o número de transistores em um chip de circuito integrado dobra a cada período de tempo \(T\) (em torno de 18 a 24 meses).

  • \(N_0\) → número inicial de transistores.
  • \(N(t)\) → número de transistores após o tempo \(t\).
  • \(T\) → intervalo em que ocorre a duplicação.

Essa equação representa um crescimento exponencial e foi uma das principais leis norteadoras do avanço da computação moderna, refletindo o aumento contínuo da capacidade de processamento, redução de custos e miniaturização dos componentes.
Hoje, embora a tendência física tenha desacelerado, o conceito ainda inspira o desenvolvimento de computação paralela, arquiteturas heterogêneas e inteligência artificial de alto desempenho.


Regressão LASSO:

\[ {LASSO}({\beta}) = \underset{\beta}{\operatorname{argmin}} \left\{ \frac{1}{2n}\sum_{i=1}^{n}(y_i - \mathbf{x}_i^\top \beta)^2 + \lambda \sum_{j=1}^{p} |\beta_j| \right\} \]

A Regressão LASSO (Least Absolute Shrinkage and Selection Operator) é uma técnica de aprendizado supervisionado usada em análise de dados e machine learning.

Seu objetivo é ajustar um modelo de regressão linear, mas penalizando os coeficientes \(\beta_j\) com o termo de regularização \(\lambda \sum_{j=1}^{p} |\beta_j|\).
Essa penalização faz com que alguns coeficientes se tornem exatamente zero, permitindo seleção automática de variáveis — ou seja, o modelo “descarta” atributos pouco relevantes.

O parâmetro \(\lambda\) controla a intensidade da penalização:
- valores altos de \(\lambda\) → modelo mais simples, mas com mais viés;
- valores baixos → modelo mais complexo, com risco de sobreajuste (overfitting).

Essa equação é essencial em problemas de alta dimensionalidade, como análise de textos, visão computacional e bioinformática.


Função de Custo da Regressão Logística:

\[ J(\theta) = -\frac{1}{m}\sum_{i=1}^{m} \left[ y^{(i)}\log(h_\theta(x^{(i)})) + (1 - y^{(i)})\log(1 - h_\theta(x^{(i)})) \right] \]

onde: \[ h_\theta(x) = \frac{1}{1 + e^{-\theta^T x}} \]

Essa é a função de custo utilizada na regressão logística, um dos modelos de classificação binária mais comuns em aprendizado de máquina.
Ela mede o erro médio entre as previsões \(h_\theta(x^{(i)})\) e os valores reais \(y^{(i)}\).

O objetivo do treinamento é minimizar \(J(\theta)\), ajustando os parâmetros \(\theta\) de forma que as previsões fiquem mais próximas dos valores reais.
A função logística (ou sigmoide) transforma combinações lineares de atributos em valores de probabilidade entre 0 e 1, ideais para classificar eventos, como spam/não-spam, cliente adimplente/inadimplente, etc.


Regra de Atualização de Pesos em Redes Neurais (Gradiente Descendente):

\[ w_{ij}^{(t+1)} = w_{ij}^{(t)} - \eta \frac{\partial J}{\partial w_{ij}} \]

Essa é a regra fundamental de aprendizado em redes neurais artificiais.
Ela descreve como os pesos sinápticos (\(w_{ij}\)) são atualizados durante o processo de treinamento com base no gradiente da função de custo (\(J\)).

  • \(\eta\) é a taxa de aprendizado, que controla o tamanho dos passos na direção do gradiente.
  • \(\frac{\partial J}{\partial w_{ij}}\) indica o quanto o erro muda quando o peso \(w_{ij}\) é alterado.

O processo repete-se iterativamente até que \(J\) seja minimizado, resultando em uma rede capaz de generalizar padrões nos dados.
Essa equação é o núcleo de técnicas de deep learning, como CNNs e RNNs, amplamente usadas em reconhecimento de imagens, voz e texto.


Capacidade de Canal em Redes de Computadores (Lei de Shannon-Hartley):

\[ C = B \log_2 \left(1 + \frac{S}{N} \right) \]

  • \(C\) → capacidade máxima do canal (em bits por segundo).
  • \(B\) → largura de banda do canal (em Hz).
  • \(S\) → potência do sinal transmitido.
  • \(N\) → potência do ruído no canal.

Essa equação, conhecida como Lei de Shannon-Hartley, determina a taxa máxima de transmissão de dados que um canal de comunicação pode suportar sem erro, considerando a presença de ruído.

Em redes de computadores, essa equação é fundamental para:
- dimensionar links de comunicação;
- avaliar limites teóricos de transmissão em fibras ópticas, Wi-Fi, 5G, etc.;
- planejar sistemas de comunicação eficientes, garantindo que a taxa de transmissão não ultrapasse a capacidade do canal.

Basicamente, quanto maior a largura de banda e a relação sinal-ruído (S/N), maior será a capacidade de transmissão de dados, permitindo redes mais rápidas e confiáveis.


4) Adicione duas figuras relacionadas à ciência de dados.

Figura 1:

Figura 1 - Ciência de dados.
Figura 1 - Ciência de dados.

Figura 2:

Figura 2 - Processo em Ciência de dados.
Figura 2 - Processo em Ciência de dados.

5) Pesquise e inclua cinco referências bibliográficas.

A lei ainda continua de pé (Moore 1979);

Ciência de Dados: Uma visão abrangente (Cao 2017);

Ciência de Dados: Uma revisão para os problemas do Big Data (Nasution et al. 2021);

Como a Lei de Moore conduziu as três épocas dos FPGA’s (Trimberger 2018);

Machine Learning na Física, Química, e Ciência de Materiais: Descoberta e Design de Materiais (Ravanhani Schleder and Fazzio 2021);


Cao, Longbing. 2017. “Data Science: A Comprehensive Overview.” ACM Computing Surveys 50 (June): 1–42. https://doi.org/10.1145/3076253.
Moore, G. 1979. “Are We Really Ready for VLSI2?” In 1979 IEEE International Solid-State Circuits Conference. Digest of Technical Papers, XXII:54–55. https://doi.org/10.1109/ISSCC.1979.1155953.
Nasution, Mahyuddin, Opim Sitompul, Marischa Elveny, and B R Syah. 2021. “Data Science: A Review Towards the Big Data Problems.” Journal of Physics: Conference Series 1898 (June): 012006. https://doi.org/10.1088/1742-6596/1898/1/012006.
Ravanhani Schleder, Gabriel, and Adalberto Fazzio. 2021. “Machine Learning Na Física, Química, e Ciência de Materiais: Descoberta e Design de Materiais.” Revista Brasileira de Ensino de Física 43 (March): e20200407. https://doi.org/10.1590/1806-9126-RBEF-2020-0407.
Trimberger, Stephen M. Steve. 2018. “Three Ages of FPGAs: A Retrospective on the First Thirty Years of FPGA Technology: This Paper Reflects on How Moore’s Law Has Driven the Design of FPGAs Through Three Epochs: The Age of Invention, the Age of Expansion, and the Age of Accumulation.” IEEE Solid-State Circuits Magazine 10 (2): 16–29. https://doi.org/10.1109/MSSC.2018.2822862.