input datany {r} prabowo rev <- prabowo$full_text head(rev)

selanjutnya kita melakukan lower case = mengubah huruf kapital menjadi huruf kecil {r} rev <- tolower(rev) head(rev) kemudian kita Mengembalikan Kata yang disingkat Menjadi Kata Aslinya

{r} rev <- replace_contraction(rev) head(rev) Mengembalikan Kata yang Mengalami Perpanjangan Menjadi Kata Aslinya

{r} rev <- replace_word_elongation(rev) head(rev) setelah itu kita Menghapus simbol

{r} rev <- strip(rev) head(rev)

setelah itu kita stemming/lemmatizing = kata dasar ```{r} stem_strings(rev)

lemmatize_strings(rev)

sc<-c(“driver”,“drive”,“drove”,“driven”,“drives”,“driving”)

stem_words(sc) lemmatize_words(sc)

selanjutnya kita menghapus kata penghubung

```{r}
rev <-removeWords(rev, c("di","dan","yang","akan","agar","seperti","yaitu","kami","kami",
                         "mari","pada","jelang","dimana","dengan","sudah","ini","seluruh",
                         "diminta","tak","itu","hai","bisa","wib","oleh","mai","jam",
                         "masa","berikut","kalau","klik","ibodwq","terd","httpstconvv",
                         "httpstcoxu","yzmrlyx","tahapan","refaabdi","kota","kpu","kpuid","rt","hingga","saat",
                         "belum","apa","sih","suara","pesta","dindap","http","httpstco","asn","bakal"))

kemudian Membuat Word Cloud dan Mengubah Data Frame Menjadi Data Faktor

{r} tdm <- TermDocumentMatrix(rev) m <- as.matrix(tdm) v <- sort(rowSums(m),decreasing = TRUE)

setelah itu kita Mengubah Data Faktor Menjadi Data Frame ```{r} d <- data.frame(word = names(v), freq = v)

wordcloud(d\(word, d\)freq, random.order = FALSE, max.words = 500, colors = brewer.pal(name = “Dark2”,8 )) ```

interpretasi dari hasil yang kita peroleh dari text cleaning data tweet dengan data yaitu prabowo sehingga dapat disimpulkan bahwa frekuensi kata yang paling sering muncul adalah kata “prabowo” = 111 dan kata “pak”.