input datany
{r} prabowo rev <- prabowo$full_text head(rev)
selanjutnya kita melakukan lower case = mengubah huruf kapital
menjadi huruf kecil {r} rev <- tolower(rev) head(rev)
kemudian kita Mengembalikan Kata yang disingkat Menjadi Kata Aslinya
{r} rev <- replace_contraction(rev) head(rev)
Mengembalikan Kata yang Mengalami Perpanjangan Menjadi Kata Aslinya
{r} rev <- replace_word_elongation(rev) head(rev)
setelah itu kita Menghapus simbol
{r} rev <- strip(rev) head(rev)
setelah itu kita stemming/lemmatizing = kata dasar ```{r} stem_strings(rev)
lemmatize_strings(rev)
sc<-c(“driver”,“drive”,“drove”,“driven”,“drives”,“driving”)
stem_words(sc) lemmatize_words(sc)
selanjutnya kita menghapus kata penghubung
```{r}
rev <-removeWords(rev, c("di","dan","yang","akan","agar","seperti","yaitu","kami","kami",
"mari","pada","jelang","dimana","dengan","sudah","ini","seluruh",
"diminta","tak","itu","hai","bisa","wib","oleh","mai","jam",
"masa","berikut","kalau","klik","ibodwq","terd","httpstconvv",
"httpstcoxu","yzmrlyx","tahapan","refaabdi","kota","kpu","kpuid","rt","hingga","saat",
"belum","apa","sih","suara","pesta","dindap","http","httpstco","asn","bakal"))
kemudian Membuat Word Cloud dan Mengubah Data Frame Menjadi Data Faktor
{r} tdm <- TermDocumentMatrix(rev) m <- as.matrix(tdm) v <- sort(rowSums(m),decreasing = TRUE)
setelah itu kita Mengubah Data Faktor Menjadi Data Frame ```{r} d <- data.frame(word = names(v), freq = v)
wordcloud(d\(word, d\)freq, random.order = FALSE, max.words = 500, colors = brewer.pal(name = “Dark2”,8 )) ```
interpretasi dari hasil yang kita peroleh dari text cleaning data tweet dengan data yaitu prabowo sehingga dapat disimpulkan bahwa frekuensi kata yang paling sering muncul adalah kata “prabowo” = 111 dan kata “pak”.