Karl Pearson berjasa dalam pengembangan PCA pada tahun 1901, tetapi PCA makin populer dengan meningkatnya ketersediaan komputer, yang memungkinkan komputasi statistik multivariat1 dalam skala besar. PCA sangat efektif untuk memvisualisasikan dan mengeksplorasi kumpulan data berdimensi tinggi, atau data dengan banyak fitur, karena dapat dengan mudah mengidentifikasi tren, pola, atau outlier.
PCA umumnya digunakan untuk prapemrosesan data untuk digunakan dengan algoritma machine learning. PCA dapat mengekstrak fitur paling informatif dari kumpulan data besar sambil mempertahankan informasi paling relevan dari kumpulan data awal. Hal ini mengurangi kompleksitas model karena penambahan setiap fitur baru berdampak negatif pada kinerja model, yang juga biasa disebut sebagai “kutukan dimensionalitas.”
Dengan memproyeksikan kumpulan data dimensi tinggi ke dalam ruang fitur yang lebih kecil, PCA juga meminimalkan, atau sama sekali menghilangkan, masalah umum seperti multikolinearitas dan overfitting. Multikolinearitas terjadi ketika dua atau lebih variabel independen berkorelasi tinggi satu sama lain, yang dapat menjadi masalah untuk pemodelan kausal. Model yang overfitting akan digeneralisasikan dengan buruk ke data baru, sehingga mengurangi nilainya secara keseluruhan. PCA adalah pendekatan yang umum digunakan dalam analisis regresi tetapi juga dimanfaatkan untuk berbagai contoh penggunaan, seperti pengenalan pola, pemrosesan sinyal, pemrosesan gambar, dan banyak lagi.
Meskipun ada variasi lain dari PCA, seperti regresi komponen utama dan PCA kernel, ruang lingkup artikel ini akan fokus pada metode utama dalam literatur saat ini.