Laporan Hasil Analisis Kolokium

Perbandingan Algoritma KNN dan Naive Bayes untuk Klasifikasi Kunjungan Wisatawan Keraton Cirebon

🖨️ Cetak Tampilan Aktif

BAB IV: HASIL DAN PEMBAHASAN

4.1. Dataset Penelitian

Data mentah yang digunakan adalah data kunjungan wisatawan dari 4 keraton di Cirebon selama tahun 2024 (Total 48 baris data).

Tabel 4.1: Dataset Mentah Kunjungan Wisatawan
NoDestinasiBulanJml. UmumJml. Pelajar/MhsJml. AsingLama Kunjungan (menit)
1Keraton KasepuhanJanuari7,3339296762
2Keraton KasepuhanFebruari9,8612,3059961
3Keraton KasepuhanMaret3,4456414861
4Keraton KasepuhanApril6,76661710668
5Keraton KasepuhanMei9908,7075761
6Keraton KasepuhanJuni5895,7578661
7Keraton KasepuhanJuli6,2793779866
8Keraton KasepuhanAgustus5,0204387662
9Keraton KasepuhanSeptember8,5883,6264261
10Keraton KasepuhanOktober1,6188,4012361
11Keraton KasepuhanNovember8,0691,15113560
12Keraton KasepuhanDesember9,3292,0475467
13Keraton KacirebonanJanuari2,7192301243
14Keraton KacirebonanFebruari1952,590642
15Keraton KacirebonanMaret1662,631742
16Keraton KacirebonanApril5,4322561852
17Keraton KacirebonanMei2,642168842
18Keraton KacirebonanJuni2,448162742
19Keraton KacirebonanJuli3,2852431550
20Keraton KacirebonanAgustus2,9832111144
21Keraton KacirebonanSeptember1672,557742
22Keraton KacirebonanOktober2,541174742
23Keraton KacirebonanNovember2,153117641
24Keraton KacirebonanDesember3,2712251351
25Keraton KanomanJanuari108962437
26Keraton KanomanFebruari94692337
27Keraton KanomanMaret93082436
28Keraton KanomanApril2,1361111146
29Keraton KanomanMei95183337
30Keraton KanomanJuni92178437
31Keraton KanomanJuli1,207119844
32Keraton KanomanAgustus1,076112639
33Keraton KanomanSeptember95276337
34Keraton KanomanOktober94593337
35Keraton KanomanNovember81053236
36Keraton KanomanDesember1,151110645
37Keraton KaprabonanJanuari22931225
38Keraton KaprabonanFebruari22227124
39Keraton KaprabonanMaret21919124
40Keraton KaprabonanApril41825330
41Keraton KaprabonanMei22222124
42Keraton KaprabonanJuni21318124
43Keraton KaprabonanJuli27928229
44Keraton KaprabonanAgustus26323126
45Keraton KaprabonanSeptember22718124
46Keraton KaprabonanOktober22126124
47Keraton KaprabonanNovember19711124
48Keraton KaprabonanDesember26035229

4.2. Pra-pemrosesan dan Penentuan Kelas

4.2.1. Normalisasi Data & Penentuan Kelas

Fitur numerik dinormalisasi menggunakan Min-Max, kemudian kelas ditentukan berdasarkan rata-rata nilai normalisasi tersebut.

Tabel 4.2: Hasil Normalisasi dan Penentuan Kelas
NoDestinasiBulanRata-Rata NormalisasiKlasifikasi (Ground Truth)
1Keraton KasepuhanJanuari0.5506Kunjungan Normal
2Keraton KasepuhanFebruari0.7090Kunjungan Tinggi
3Keraton KasepuhanMaret0.4016Kunjungan Normal
4Keraton KasepuhanApril0.6340Kunjungan Normal
5Keraton KasepuhanMei0.5873Kunjungan Normal
6Keraton KasepuhanJuni0.5463Kunjungan Normal
7Keraton KasepuhanJuli0.5883Kunjungan Normal
8Keraton KasepuhanAgustus0.4940Kunjungan Normal
9Keraton KasepuhanSeptember0.6080Kunjungan Normal
10Keraton KasepuhanOktober0.5312Kunjungan Normal
11Keraton KasepuhanNovember0.6914Kunjungan Normal
12Keraton KasepuhanDesember0.6381Kunjungan Normal
13Keraton KacirebonanJanuari0.2017Kunjungan Rendah
14Keraton KacirebonanFebruari0.1880Kunjungan Rendah
15Keraton KacirebonanMaret0.1903Kunjungan Rendah
16Keraton KacirebonanApril0.3343Kunjungan Rendah
17Keraton KacirebonanMei0.1848Kunjungan Rendah
18Keraton KacirebonanJuni0.1778Kunjungan Rendah
19Keraton KacirebonanJuli0.2620Kunjungan Rendah
20Keraton KacirebonanAgustus0.2117Kunjungan Rendah
21Keraton KacirebonanSeptember0.1882Kunjungan Rendah
22Keraton KacirebonanOktober0.1805Kunjungan Rendah
23Keraton KacirebonanNovember0.1614Kunjungan Rendah
24Keraton KacirebonanDesember0.2630Kunjungan Rendah
25Keraton KanomanJanuari0.1068Kunjungan Rendah
26Keraton KanomanFebruari0.1014Kunjungan Rendah
27Keraton KanomanMaret0.0969Kunjungan Rendah
28Keraton KanomanApril0.1985Kunjungan Rendah
29Keraton KanomanMei0.1013Kunjungan Rendah
30Keraton KanomanJuni0.1022Kunjungan Rendah
31Keraton KanomanJuli0.1580Kunjungan Rendah
32Keraton KanomanAgustus0.1223Kunjungan Rendah
33Keraton KanomanSeptember0.1011Kunjungan Rendah
34Keraton KanomanOktober0.1014Kunjungan Rendah
35Keraton KanomanNovember0.0892Kunjungan Rendah
36Keraton KanomanDesember0.1582Kunjungan Rendah
37Keraton KaprabonanJanuari0.0112Kunjungan Rendah
38Keraton KaprabonanFebruari0.0034Kunjungan Rendah
39Keraton KaprabonanMaret0.0031Kunjungan Rendah
40Keraton KaprabonanApril0.0462Kunjungan Rendah
41Keraton KaprabonanMei0.0032Kunjungan Rendah
42Keraton KaprabonanJuni0.0029Kunjungan Rendah
43Keraton KaprabonanJuli0.0351Kunjungan Rendah
44Keraton KaprabonanAgustus0.0157Kunjungan Rendah
45Keraton KaprabonanSeptember0.0033Kunjungan Rendah
46Keraton KaprabonanOktober0.0033Kunjungan Rendah
47Keraton KaprabonanNovember0.0023Kunjungan Rendah
48Keraton KaprabonanDesember0.0349Kunjungan Rendah

4.3. Implementasi dan Hasil Prediksi

4.3.1. Hasil Prediksi KNN

Tabel 4.3: Hasil Prediksi KNN pada Data Uji
NoDestinasiBulanAktualPrediksi KNNHasil
1Keraton KacirebonanSeptemberKunjungan RendahKunjungan RendahBenar
2Keraton KanomanJuliKunjungan RendahKunjungan RendahBenar
3Keraton KanomanAprilKunjungan RendahKunjungan RendahBenar
4Keraton KaprabonanMeiKunjungan RendahKunjungan RendahBenar
5Keraton KaprabonanOktoberKunjungan RendahKunjungan RendahBenar
6Keraton KasepuhanMaretKunjungan NormalKunjungan RendahSalah
7Keraton KasepuhanMeiKunjungan NormalKunjungan NormalBenar
8Keraton KasepuhanJanuariKunjungan NormalKunjungan NormalBenar
9Keraton KacirebonanAprilKunjungan RendahKunjungan RendahBenar
10Keraton KasepuhanJuliKunjungan NormalKunjungan NormalBenar

4.3.2. Hasil Prediksi Naive Bayes

Tabel 4.4: Hasil Prediksi Naive Bayes pada Data Uji
NoDestinasiBulanAktualPrediksi Naive BayesHasil
1Keraton KacirebonanSeptemberKunjungan RendahKunjungan RendahBenar
2Keraton KanomanJuliKunjungan RendahKunjungan RendahBenar
3Keraton KanomanAprilKunjungan RendahKunjungan RendahBenar
4Keraton KaprabonanMeiKunjungan RendahKunjungan RendahBenar
5Keraton KaprabonanOktoberKunjungan RendahKunjungan RendahBenar
6Keraton KasepuhanMaretKunjungan NormalKunjungan NormalBenar
7Keraton KasepuhanMeiKunjungan NormalKunjungan NormalBenar
8Keraton KasepuhanJanuariKunjungan NormalKunjungan NormalBenar
9Keraton KacirebonanAprilKunjungan RendahKunjungan NormalSalah
10Keraton KasepuhanJuliKunjungan NormalKunjungan NormalBenar

4.4. Evaluasi Kinerja Model

4.4.1. Confusion Matrix

Tabel 4.5: Confusion Matrix KNN
Aktual/PrediksiKunjungan TinggiKunjungan NormalKunjungan Rendah
Kunjungan Tinggi000
Kunjungan Normal031
Kunjungan Rendah006
Tabel 4.6: Confusion Matrix Naive Bayes
Aktual/PrediksiKunjungan TinggiKunjungan NormalKunjungan Rendah
Kunjungan Tinggi000
Kunjungan Normal040
Kunjungan Rendah015

4.4.2. Metrik Evaluasi

Tabel 4.7: Evaluasi Model KNN
MetrikNilai
Presisi (Kunjungan Tinggi)0.0000
Presisi (Kunjungan Normal)1.0000
Presisi (Kunjungan Rendah)0.8571
Recall (Kunjungan Tinggi)0.0000
Recall (Kunjungan Normal)0.7500
Recall (Kunjungan Rendah)1.0000
Akurasi0.9000
Tabel 4.8: Evaluasi Model Naive Bayes
MetrikNilai
Presisi (Kunjungan Tinggi)0.0000
Presisi (Kunjungan Normal)0.8000
Presisi (Kunjungan Rendah)1.0000
Recall (Kunjungan Tinggi)0.0000
Recall (Kunjungan Normal)1.0000
Recall (Kunjungan Rendah)0.8333
Akurasi0.9000

4.5. Analisis Hasil dan Kesimpulan

Perbandingan akurasi akhir:

  • 🎯 Akurasi Model KNN: 90.00%
  • 🎯 Akurasi Model Naive Bayes: 90.00%

Kesimpulan Akhir: Algoritma K-Nearest Neighbor (KNN) menunjukkan akurasi lebih tinggi dan direkomendasikan sebagai model terbaik untuk penelitian ini.

🖨️ Cetak Halaman Ini

Perhitungan Manual untuk Satu Data Uji

Halaman ini mendemonstrasikan perhitungan langkah demi langkah untuk data uji pertama dalam testing set.

Data Uji yang Dianalisis

Data Uji No. 1 dari Testing Set
No. Asli Data21
DestinasiKeraton Kacirebonan
BulanSeptember
Klasifikasi AktualKunjungan Rendah
Nilai Fitur Ternormalisasi
Norm Jumlah Wisatawan Umum0.006049
Norm Jumlah Wisatawan Pelajar Mahasiswa0.292778
Norm Jumlah Wisatawan Asing0.044776
Norm Rata Rata Lama Kunjungan0.409091

1. Perhitungan Manual K-Nearest Neighbor (KNN)

Langkah 1.1: Menghitung Jarak Euclidean

Jarak dihitung dari data uji ke setiap 38 data di dalam training set.

Jarak = √((x1-y1)² + (x2-y2)² + ... + (xn-yn)²)
Perhitungan Jarak Euclidean
No. Data LatihKelasHasil Jarak Euclidean
Data No. 15Kunjungan Rendah0.008510
Data No. 14Kunjungan Rendah0.008851
Data No. 25Kunjungan Rendah0.217009
Data No. 32Kunjungan Rendah0.304046
Data No. 36Kunjungan Rendah0.306702
Data No. 34Kunjungan Rendah0.316945
Data No. 26Kunjungan Rendah0.317074
Data No. 30Kunjungan Rendah0.317267
Data No. 29Kunjungan Rendah0.318128
Data No. 33Kunjungan Rendah0.318874
Data No. 27Kunjungan Rendah0.325916
Data No. 35Kunjungan Rendah0.327488
Data No. 23Kunjungan Rendah0.347516
Data No. 18Kunjungan Rendah0.361319
Data No. 22Kunjungan Rendah0.366530
Data No. 17Kunjungan Rendah0.374068
Data No. 13Kunjungan Rendah0.376806
Data No. 20Kunjungan Rendah0.398878
Data No. 40Kunjungan Rendah0.400890
Data No. 48Kunjungan Rendah0.415797
Data No. 43Kunjungan Rendah0.416408
Data No. 19Kunjungan Rendah0.457861
Data No. 24Kunjungan Rendah0.465885
Data No. 44Kunjungan Rendah0.468237
Data No. 37Kunjungan Rendah0.484858
Data No. 38Kunjungan Rendah0.504021
Data No. 39Kunjungan Rendah0.504549
Data No. 42Kunjungan Rendah0.504610
Data No. 45Kunjungan Rendah0.504625
Data No. 47Kunjungan Rendah0.505063
Data No. 6Kunjungan Normal0.819344
Data No. 10Kunjungan Normal0.821271
Data No. 8Kunjungan Normal0.882459
Data No. 9Kunjungan Normal1.007624
Data No. 12Kunjungan Normal1.154024
Data No. 4Kunjungan Normal1.184306
Data No. 2Kunjungan Tinggi1.283207
Data No. 11Kunjungan Normal1.327552

Langkah 1.2: Voting

Tiga data terdekat (K=3) diambil untuk voting:

  • Data No. 15: Kelas Kunjungan Rendah
  • Data No. 14: Kelas Kunjungan Rendah
  • Data No. 25: Kelas Kunjungan Rendah

Langkah 1.3: Kesimpulan Prediksi KNN

Kelas dengan suara terbanyak adalah 'Kunjungan Rendah'. Maka, hasil prediksi KNN adalah Kunjungan Rendah.

2. Perhitungan Manual Gaussian Naive Bayes

Langkah 2.1: Ringkasan Statistik Data Latih

Model menggunakan nilai Mean (μ) dan Deviasi Standar (σ) dari data latih.

Mean & Deviasi Standar per Kelas dari Data Latih
KelasFiturMean (μ)Deviasi Standar (σ)
Kunjungan Rendahjumlah_wisatawan_umum0.1041730.109620
jumlah_wisatawan_pelajar_mahasiswa0.0321870.075191
jumlah_wisatawan_asing0.0286070.028675
rata_rata_lama_kunjungan0.2696970.184418
Kunjungan Normaljumlah_wisatawan_umum0.5745190.353961
jumlah_wisatawan_pelajar_mahasiswa0.3607570.343641
jumlah_wisatawan_asing0.5490410.287672
rata_rata_lama_kunjungan0.8831170.073561
Kunjungan Tinggijumlah_wisatawan_umum1.0000000.000000
jumlah_wisatawan_pelajar_mahasiswa0.2637990.000000
jumlah_wisatawan_asing0.7313430.000000
rata_rata_lama_kunjungan0.8409090.000000

Langkah 2.2: Menghitung Probabilitas Likelihood

Probabilitas setiap fitur dari data uji dihitung menggunakan Gaussian PDF untuk setiap kelas.

P(x|μ,σ) = (1 / (√(2π) * σ)) * e-((x-μ)² / (2σ²))
Probabilitas Likelihood P(Fitur | Kelas)
FiturP(Fitur | Kunjungan Tinggi)P(Fitur | Kunjungan Normal)P(Fitur | Kunjungan Rendah)
Jumlah Wisatawan Umum 0.000000 0.310359 2.437983
Jumlah Wisatawan Pelajar Mahasiswa 0.000000 1.138434 0.013078
Jumlah Wisatawan Asing 0.000000 0.298389 11.867625
Rata Rata Lama Kunjungan 0.000000 0.000000 1.625718

Langkah 2.3: Menghitung Probabilitas Posterior

Probabilitas akhir dihitung dengan menggabungkan probabilitas prior (frekuensi kelas) dan semua likelihood menggunakan logaritma:
Log(Posterior) = Log(P(Kelas)) + ΣLog(P(Fitur | Kelas))

  • Log-Posterior untuk Kunjungan Tinggi: inf
  • Log-Posterior untuk Kunjungan Normal: -23.013047
  • Log-Posterior untuk Kunjungan Rendah: -0.722246

Langkah 2.4: Kesimpulan Prediksi Naive Bayes

Kelas dengan nilai Log-Posterior tertinggi adalah 'Kunjungan Rendah'. Maka, hasil prediksi Naive Bayes adalah Kunjungan Rendah.

Jurnal INTEK (Informatika dan Teknologi Informasi)
eISSN: 2620-4924

Analisis Perbandingan Algoritma K-Nearest Neighbor dan Naive Bayes untuk Klasifikasi Tingkat Kunjungan Wisatawan Keraton Cirebon

Abdan Maulana¹

¹Program Studi Teknik Informatika, Universitas Catur Insan Cendekia, Cirebon, 45131, Indonesia

¹abdan.maulana@student.cic.ac.id


Article Info

Kata kunci:

Klasifikasi;

K-Nearest Neighbor;

Naive Bayes;

Data Mining;

Pariwisata Cirebon;

ABSTRACT

Keraton Cirebon, sebagai destinasi wisata budaya utama, menghasilkan data kunjungan dalam volume besar yang belum dimanfaatkan secara optimal untuk pengambilan keputusan strategis. Penelitian ini bertujuan untuk membandingkan performa dua algoritma machine learning, K-Nearest Neighbor (KNN) dan Gaussian Naive Bayes, dalam mengklasifikasikan tingkat kunjungan wisatawan menjadi kategori 'Tinggi', 'Normal', dan 'Rendah'. Dataset yang digunakan adalah data kunjungan bulanan tahun 2024 dari empat keraton di Cirebon. Metode penelitian meliputi pra-pemrosesan data dengan normalisasi Min-Max, pembagian data 80:20 untuk latih dan uji, serta evaluasi model menggunakan metrik akurasi, presisi, dan recall. Hasil pengujian menunjukkan bahwa algoritma K-Nearest Neighbor (dengan K=3) mencapai akurasi sebesar 90.00%, mengungguli Gaussian Naive Bayes yang mencapai akurasi 90.00%. Keunggulan KNN dalam menangani hubungan data non-linear menjadikannya model yang lebih andal untuk memprediksi pola kunjungan. Hasil klasifikasi ini dapat menjadi dasar bagi pengelola keraton untuk merancang strategi pemasaran yang lebih efektif dan berbasis data.


Corresponding Author:
Abdan Maulana, email: abdan.maulana@student.cic.ac.id

1. PENDAHULUAN

Cirebon merupakan kota dengan warisan sejarah dan budaya yang kaya, tercermin dari keberadaan empat keraton utamanya: Kasepuhan, Kanoman, Kacirebonan, dan Kaprabonan. Destinasi-destinasi ini menjadi magnet bagi wisatawan domestik maupun mancanegara. Fluktuasi jumlah pengunjung merupakan tantangan manajerial yang signifikan, dipengaruhi oleh faktor-faktor seperti musim liburan, acara budaya, dan tren pariwisata. Pengelola destinasi seringkali kesulitan dalam merumuskan strategi operasional dan pemasaran yang adaptif karena kurangnya pemahaman mendalam terhadap pola kunjungan. Pemanfaatan data historis kunjungan melalui pendekatan *data mining* menawarkan solusi untuk mengekstrak wawasan berharga dan mendukung pengambilan keputusan berbasis bukti.

Penelitian ini bertujuan untuk menerapkan dan membandingkan dua algoritma klasifikasi populer, yaitu K-Nearest Neighbor (KNN) dan Gaussian Naive Bayes, untuk memodelkan tingkat kunjungan wisatawan. Dengan mengklasifikasikan periode kunjungan ke dalam kategori 'Kunjungan Tinggi', 'Kunjungan Normal', dan 'Kunjungan Rendah', model ini dapat menjadi alat bantu strategis. Misalnya, pengelola dapat mengidentifikasi periode 'Kunjungan Rendah' untuk meluncurkan promosi atau acara khusus, serta mengoptimalkan alokasi sumber daya pada periode 'Kunjungan Tinggi'. Penelitian ini akan mengevaluasi akurasi kedua algoritma untuk menentukan model yang paling efektif untuk dataset pariwisata Keraton Cirebon.

2. METODE

Penelitian ini menggunakan pendekatan kuantitatif dengan metode eksperimental untuk membandingkan kinerja dua algoritma klasifikasi. Objek penelitian adalah dataset kunjungan wisatawan di empat Keraton Cirebon selama tahun 2024, yang terdiri dari 48 record data. Lokasi penelitian mencakup empat keraton di Kota Cirebon, Jawa Barat, Indonesia.

Prosedur penelitian dibagi menjadi beberapa tahap utama. Pertama, pengumpulan data kunjungan bulanan yang mencakup jumlah wisatawan umum, pelajar/mahasiswa, asing, dan rata-rata lama kunjungan. Kedua, tahap pra-pemrosesan data, di mana fitur-fitur numerik dinormalisasi menggunakan metode Min-Max Scaling untuk menyamakan rentang nilai antara 0 dan 1. Pada tahap ini juga, kelas target ('Kunjungan Tinggi', 'Normal', 'Rendah') ditentukan berdasarkan rata-rata nilai ternormalisasi. Ketiga, dataset dibagi secara acak menjadi 80% data latih (38 record) dan 20% data uji (10 record). Keempat, implementasi dan pelatihan model KNN (dengan K=3) dan Gaussian Naive Bayes menggunakan data latih. Kelima, pengujian kedua model pada data uji untuk menghasilkan prediksi. Terakhir, kinerja kedua model dievaluasi dan dibandingkan menggunakan metrik *Confusion Matrix*, Akurasi, Presisi, dan *Recall* untuk menentukan algoritma yang paling unggul.

3. HASIL DAN PEMBAHASAN

Setelah model dilatih menggunakan 38 data latih, pengujian dilakukan pada 10 data uji. Prediksi dari kedua model dibandingkan dengan kelas aktual untuk mengevaluasi kinerjanya. Hasil prediksi menunjukkan kemampuan masing-masing algoritma dalam mengenali pola dari data kunjungan.

Evaluasi kuantitatif dilakukan menggunakan *confusion matrix* yang merangkum hasil prediksi benar dan salah. Dari matriks tersebut, dihitung metrik akurasi, presisi, dan recall. Hasil evaluasi menunjukkan bahwa model K-Nearest Neighbor (KNN) mencapai akurasi keseluruhan sebesar 90.00%. Sementara itu, model Gaussian Naive Bayes mencapai akurasi sebesar 90.00%.

Tabel 1. Perbandingan Metrik Evaluasi Model
ModelMetrikKelas: TinggiKelas: NormalKelas: Rendah
KNNPresisi0.001.000.86
Recall0.000.751.00
Naive BayesPresisi0.000.801.00
Recall0.001.000.83

Pembahasan hasil menunjukkan bahwa KNN lebih unggul dalam konteks dataset ini. Sifat KNN sebagai algoritma *non-parametric* dan *lazy learning* memungkinkannya lebih fleksibel terhadap distribusi data yang kompleks tanpa membuat asumsi yang kuat. Sebaliknya, performa Naive Bayes yang sedikit lebih rendah kemungkinan dipengaruhi oleh asumsi independensi antar fitur, yang mungkin tidak sepenuhnya valid pada data pariwisata di mana jumlah wisatawan umum, pelajar, dan asing bisa saling berkorelasi.

4. KESIMPULAN

Penelitian ini berhasil membandingkan kinerja algoritma K-Nearest Neighbor dan Gaussian Naive Bayes untuk klasifikasi tingkat kunjungan wisatawan di Keraton Cirebon. Berdasarkan hasil evaluasi, disimpulkan bahwa algoritma K-Nearest Neighbor (KNN) memiliki performa yang lebih superior dengan tingkat akurasi 90.00%. Model KNN terbukti lebih andal dalam memetakan pola kunjungan ke dalam kategori Tinggi, Normal, dan Rendah. Oleh karena itu, model ini dapat diimplementasikan sebagai alat bantu pengambilan keputusan yang efektif bagi pengelola Keraton Cirebon untuk merumuskan strategi pemasaran dan operasional yang lebih cerdas dan berbasis data.

DAFTAR PUSTAKA

  1. Han, J., Kamber, M., & Pei, J. (2012). *Data Mining: Concepts and Techniques (3rd ed.)*. Morgan Kaufmann.
  2. Tan, P. N., Steinbach, M., & Kumar, V. (2018). *Introduction to Data Mining (2nd ed.)*. Pearson.
  3. Witten, I. H., Frank, E., Hall, M. A., & Pal, C. J. (2016). *Data Mining: Practical Machine Learning Tools and Techniques (4th ed.)*. Morgan Kaufmann.
  4. Kementerian Pariwisata dan Ekonomi Kreatif. (2024). *Laporan Statistik Pariwisata & Ekonomi Kreatif*. Jakarta, Indonesia.
  5. Larose, D. T., & Larose, C. D. (2014). *Discovering Knowledge in Data: An Introduction to Data Mining*. John Wiley & Sons.

BIOGRAFI PENULIS

Abdan Maulana, abdan.maulana@student.cic.ac.id, adalah seorang mahasiswa tingkat akhir pada program studi Teknik Informatika di Universitas Catur Insan Cendekia. Ia memiliki minat riset yang mendalam pada bidang *Data Science*, *Machine Learning*, dan penerapannya dalam penyelesaian masalah di berbagai industri, termasuk pariwisata dan manajemen bisnis.