Pengertian Partial Least Square (PLS), Fungsi, Tujuan, Mode dan Algoritma

Parsial parsial parsial atau yang biasa disingkat PLS adalah jenis analisis statistik yang utilitasnya mirip dengan SEM dalam analisis kovarians. Karena mirip dengan SEM, struktur dasar dalam PLS yang digunakan didasarkan pada regresi linier. Dengan demikian, apa yang ada dalam regresi linier juga ada dalam PLS. Hanya memiliki simbol, simbol, atau istilah yang berbeda. Seperti? masih di artikel kami, jadi pertanyaannya akan terselesaikan dengan sendirinya nanti.

Pengertian Partial Least Square (PLS), Fungsi, Tujuan, Mode dan Algoritma

Dalam diskusi tentang PLS, jelas, itu tidak akan cukup dalam satu artikel. Jadi kami akan melakukannya dalam serangkaian artikel, yang kami coba membuatnya sederhana dan mudah dimengerti dan berdasarkan studi kasus atau contoh langsung operasinya dalam perangkat lunak seperti smartPLS.

Jadi mungkin seperti artikel lain di Statisticsian.com, kami mencoba memberikan penjelasan yang sederhana, dasar, mudah dimengerti dan praktis sehingga pembaca dapat segera berlatih secepat mungkin (seperti teks iklan). Di beberapa bagian dari rangkaian artikel, kami akan mengambil dari berbagai tulisan para ahli dalam buku dan blogger yang beredar di berbagai blog. (Sebelumnya terima kasih kepada para ahli dan blogger.)
Pemahaman persegi parsial

Minimum parsial parsial adalah teknik statistik multivariat yang mampu menangani banyak variabel respons dan variabel penjelas secara bersamaan. Analisis ini merupakan alternatif yang baik untuk metode analisis regresi berganda dan regresi komponen utama, karena metode ini lebih kuat atau kebal. Kuat berarti bahwa parameter model tidak banyak berubah ketika sampel baru diambil dari total populasi (Geladi dan Kowalski, 1986).

Partial Least Square adalah teknik prediksi yang dapat menangani banyak variabel independen, meskipun terjadi multikolinieritas antara variabel-variabel ini (Ramzan dan Khan, 2010).

Menurut Wold, PLS adalah metode analisis yang kuat karena tidak didasarkan pada banyak hipotesis atau kondisi, seperti tes normalitas dan multikolinieritas. Metode ini memiliki kelebihan, antara lain: data tidak harus multivarian. Anda juga dapat menggunakan indikator dengan kategori skala data, tata cara, interval laporan. Keuntungan lain adalah ukuran sampel yang tidak harus besar.
Penemu PLS

PLS pertama kali dikembangkan oleh Herman O. A. Wold di bidang ekonometrik pada 1960-an. Keuntungan penting dari Partial Least Square adalah dapat menangani banyak variabel independen, bahkan jika multikolinieritas terjadi di antara variabel independen.

Baca definisi multikolinearitas dan dampaknya!

Analisis regresi berganda sebenarnya dapat digunakan ketika ada banyak variabel prediktif. Namun, jika jumlah variabel terlalu besar (misalnya lebih banyak variabel daripada jumlah pengamatan), sebuah model akan diperoleh yang beradaptasi dengan data sampel, tetapi akan gagal memprediksi data baru. Fenomena ini disebut adaptasi berlebihan.

Dalam hal adaptasi berlebih ini, walaupun ada banyak faktor manifes, mungkin hanya ada beberapa faktor laten yang paling dapat menjelaskan variasi respons. Kemudian muncul ide PLS. Gagasan umum PLS adalah mengekstraksi faktor laten ini, yang menjelaskan sebanyak mungkin variasi faktor manifes selama pemodelan variabel respons.
Algoritma PLS

Untuk ayat pada algoritma ini, terus terang, jangan berani. Bagi yang mengalami kesulitan, baca saja dulu. Segala sesuatu mengerti atau tidak, itu tidak masalah. Yang penting di artikel selanjutnya adalah Anda bisa melakukan analisis yang disebut Partial Least Square.

Misalnya X adalah matriks yang mengukur n x p dan Y adalah matriks yang mengukur n x q. Jadi prosedur PLS akan mengekstraksi faktor dari X dan Y berturut-turut sehingga faktor yang diekstraksi memiliki kovarians maksimum. Metode PLS juga dapat bekerja dengan beberapa variabel respons.

Sumber : https://materibelajar.co.id/