R yükleme
markdown başlangıç
Web sayfasını hazırlama
Internete yükleme
\[A=\frac{1}{n}\Sigma^n_i(a_i)\]
library(WDI)
library(ggplot2)
# Gerekli kütüphaneleri yükleme
install.packages("ggplot2") # ggplot2 paketini yükler
## Warning: package 'ggplot2' is in use and will not be installed
library(ggplot2) # ggplot2 kütüphanesini çağırır
# Örnek veri oluşturma
years <- c(2010, 2011, 2012, 2013, 2014, 2015, 2016, 2017, 2018, 2019, 2020, 2021)
korea_inflation <- c(2.0, 4.0, 2.5, 1.8, 1.2, 1.5, 1.7, 1.6, 1.3, 1.4, 1.2, 1.1)
china_inflation <- c(3.0, 5.0, 4.5, 3.8, 2.9, 2.5, 2.3, 2.0, 1.8, 1.7, 1.5, 1.3)
# Veriyi birleştirme
inflation_data <- data.frame(Year = years,
Korea = korea_inflation,
China = china_inflation)
# Veriyi grafik olarak çizme
ggplot(inflation_data, aes(x = Year)) +
geom_line(aes(y = Korea, color = "Korea")) +
geom_line(aes(y = China, color = "China")) +
scale_color_manual(values = c("Korea" = "blue", "China" = "red")) +
labs(title = "Korea ve China Enflasyon Oranları (2010-2021)",
x = "Yıl",
y = "Yıllık Enflasyon Oranı",
color = "Ülke") +
theme_minimal()
Makina öğrenmesi açıklayın? ChatGPT Makina öğrenmesi, bilgisayar sistemlerinin verilerden öğrenme yeteneği kazanarak belirli bir görevi gerçekleştirmek için algoritmalar geliştirmesini sağlayan bir yapay zeka dalıdır. Makina öğrenmesi, belirli bir görev için programlanmaktan ziyade verilere dayalı olarak öğrenme kapasitesine sahiptir. Bu, veri analizi, desen tanıma, tahmin, sınıflandırma ve kümelenme gibi birçok farklı görevde kullanılabilir.
Makina öğrenmesi genellikle üç ana kategori altında incelenir:
Denetimli Öğrenme (Supervised Learning): Bu yaklaşım, belirli bir giriş verisiyle bir çıkışı ilişkilendirme görevini ele alır. Bir öğrenme algoritması, eğitim veri setindeki giriş-çıkış ilişkisini öğrenir ve daha sonra yeni giriş verileriyle bu ilişkiyi kullanarak tahminler yapabilir. Örneğin, ev fiyatlarını tahmin etmek veya e-postaları spam ve spam olmayan olarak sınıflandırmak gibi görevler bu kategoriye girer.
Denetimsiz Öğrenme (Unsupervised Learning): Bu yaklaşım, veri setinde yapısal bir çıkarım yapmadan önceki herhangi bir etiketleme veya yönlendirme olmadan veri analizi gerçekleştirir. Burada algoritma, veri setindeki gizli yapıları veya desenleri keşfetmeye çalışır. Örneğin, benzer özelliklere sahip veri noktalarını gruplamak veya veri setindeki ana temaları belirlemek gibi görevler bu kategoriye girer.
Pekiştirme Öğrenme (Reinforcement Learning): Bu yaklaşım, bir ajanın belirli bir çevreye karşı nasıl davranacağını öğrenmeye çalışır. Ajan, çevresiyle etkileşime girer, bir eylem gerçekleştirir, çevre tarafından bir geri bildirim alır ve bu geri bildirimi kullanarak gelecekteki eylemlerini ayarlar. Ajan, belirli bir hedefi veya ödülü maksimize etmek için en iyi eylem stratejisini öğrenmeye çalışır. Örneğin, bir robotun bir engeli aşması veya bir oyun stratejisi geliştirmesi gibi görevler bu kategoriye girer.
Makina öğrenmesi, veri analitiği, yapay zeka ve bilgi işlem alanlarında geniş bir uygulama alanına sahiptir ve günümüzde birçok endüstride kullanılmaktadır, örneğin sağlık, finans, otomotiv, perakende ve daha birçok alanda
##spaceship titanic (kaggel tanıtımı)
Spacehip Titanic (Kaggle Tanıtımı) “2912 yılına hoş geldiniz, burada veri bilimi becerilerinizin bir kozmik gizemi çözmek için gerektiği bir zamandayız. Dört ışık yılı uzaklıktan bir ileti aldık ve durum iyi görünmüyor.
Uzay Gemisi Titanic, bir ay önce fırlatılan bir yıldızlararası yolcu gemisiydi. Yaklaşık 13.000 yolcuyla yola çıkan gemi, Güneş sistemimizden üç yeni yaşanabilir yıldız etrafında dönen gezegenlere göçmenleri taşıyarak ilk seferine başladı.
İlk varış noktası olan 55 Cancri E’ye, Alfa Centauri’yi dolaşırken, dikkatsiz Uzay Gemisi Titanic, bir toz bulutunun içinde gizlenmiş bir uzay-zaman anormalliğiyle çarpıştı. Ne yazık ki, adını taşıdığı gemiye bin yıl önceki kaderle benzer bir kaderi paylaştı. Gemi bütünlüğünü korudu, ancak neredeyse yolcuların yarısı alternatif bir boyuta taşındı!
Kurtarma ekiplerine yardım etmek ve kayıp yolcuları kurtarmak için, uzay gemisinin hasar görmüş bilgisayar sisteminden kurtarılan kayıtları kullanarak hangi yolcuların anormallik tarafından taşındığını tahmin etmeniz isteniyor.
Onları kurtarmaya yardım edin ve tarihi değiştirin!”
“Ortalama”, bir veri kümesindeki sayıların genel bir temsilini ifade eden bir terimdir. Bir veri kümesindeki sayıların toplamının sayı adedine bölünmesiyle bulunur.
Ortalama, veri setinin genel eğilimini anlamak için kullanışlı bir ölçüdür. Örneğin, bir sınıftaki öğrencilerin notlarının ortalama alınması, sınıfın genel performansını anlamak için kullanılabilir.
\[\bar{X} = \frac {\Sigma^n_İ (X_i)}{n} \]
Standart sapma, bir veri kümesindeki değerlerin ortalamadan ne kadar uzaklaştığını ölçen bir istatistiksel ölçüdür. Yani, bir veri setinin ne kadar homojen veya heterojen olduğunu belirlemeye yardımcı olur. Bir veri setindeki her bir değerin ortalamadan ne kadar farklı olduğunu bulmak için standart sapma hesaplanır.
\[\sigma = \sqrt \frac {\Sigma^N_i (X_i-\bar{X})^2}{N} \]
Kovaryans, iki değişken arasındaki ilişkinin değişkenliklerini ölçen bir istatistiksel terimdir. Özellikle, bu iki değişkenin birlikte nasıl değiştiğini ölçmek için kullanılır. Kovaryans, bu değişkenlerin birlikte artıp azaldığı durumları ve bunların ne kadar birbirine bağlı olduğunu belirlemeye yardımcı olur.
\[cov(X,Y)=\frac {\Sigma^n_i (X_i-X)(Y_i-Y)}{n-1}\]
korelasyon bir istatistik terimi olup, iki değişken arasındaki ilişkiyi ölçen bir ölçüdür. Bu ilişki, değişkenlerin birlikte nasıl değiştiğini ve birbirlerine ne kadar bağımlı olduklarını belirler. Daha basit bir tanımla, korelasyon, iki değişken arasındaki ilişkinin doğasını ve yönünü belirler. İki değişken arasında pozitif bir korelasyon varsa, bir değişken arttığında diğerinin de arttığı görülür. Negatif bir korelasyon ise bir değişken arttığında diğerinin azaldığını gösterir
\[ R = \frac {\Sigma (x_i-\bar{x})(y_i-\bar{y})}{ \sqrt {\Sigma (x_i-\bar{x})^2 \Sigma (y_i-\bar{y})}}\]