Penilaian Model (Structural Model)














Menilai kelayakan model/goodness of fit (Structural Model). Goodness of fit merupakan indikasi dari perbandingan antara model yang dispesifikasi dengan analisis kovarians antar indikator (observed variable). Jika hasilnya baik maka diterima model tersebut, terdapat 3 jenis ukuran goodness of fit, yaitu :


  1. Absolute Fit Indices

    Membandingkan antara fit model secara teoritis dengan data yang dikumpulkan. Terdapat tiga jenis penilaian yaitu :


    • Chi-Square

      dengan rumus X2 = (N - 1) F, dimana N adalah jumlah sampel dan F adalah discrepancy.


      Model dikatakan fit jika mempunyai nilai chi-square sama dengan nol, artinya tidak ada perbedaan antara input matriks kovarians yang diobservasi dengan model yang diprediksi. Tingkat signifikansi yang direkomendasikan adalah, nilai probabilitas > 0,05.


    • Goodness of Fit Indices (GFI)

      Merupakan tingkat kesesuaian model secara keseluruhan yang dihitung dari residual kuadrat model yang diprediksi dibandingkan dengan data observasi yang sebenarnya. Tingkat signifikansi yang direkomendasikan adalah, nilai GFI > 0,9


    • Root Mean Square Error of Approximation (RMSEA)

      Mengukur penyimpangan nilai parameter suatu model dengan matriks kovarians populasinya. Tingkat signifikansi yang direkomendasikan adalah:


      Nilai RMSEA < 0,05 mengindikasikan goodness of fit model baik; nilai RMSEA kurang dari atau sama dengan 0,08 mengindikasikan goodness of fit model kurang baik; nilai RMSEA > 1 mengindikasikan goodness of fit model tidak baik.


      Nilai probabilitas > 0,05 dan Confidences Interval antara 0,0 sampai 0,15
  2. Fit Indices

    disebut juga Comparatives Fit Indices, yaitu goodness of fit untuk membandingkan fit model secara teoritis, relatif dengan alternative baseline model (null model).

    Null model merupakan model realistik, dimana model-model yang lain harus di atasnya.
    • Adjusted Goodness of Fit (AGFI)

      Pengembangan dari GFI yang disesuaikan dengan ratio degress of freedom untuk proposed odel dengan degree of freedom untuk null model. Tingkat signifikansi yang direkomendasikan adalah, nilai AGFI lebih besar atau sama dengan 0,9


    • Normal Fit Index (NFI)

      ukuran perbandingan antara proposed model dengan null model. NFI cenderung merendahkan nilai fit pada penggunaan sampel kecil. Tingkat signifikansi yang direkomendasikan adalah, nilai NFI > 0,9 hingga 0,95


    • Comparative Fit Indices (CFI)

      dikenal dengan Bentler Fit Index (BFI) merupakan ukurang perbandingan antara model yang dihipotesiskan dengan null model. CFI tidak dapat dipengaruhi oleh ukurang sampel. Tingkat signifikansi yang direkomendasikan adalah, nilai CFI > 0,9 hingga 0,95


    • Incremental Fit Index (IFI)

      sama dengan CFI namun IFI dapat mengoreksi ukurang sampel. Tingkat signifikansi yang direkomendasikan adalah, nilai IFI > 0,9 hingga 0,95


    • Relative Fit Indices (RFI)

      dikenal dengan Relative Noncentrality Index (RNI), penjelasannya sama dengan CFI. Tingkat signifikansi yang direkomendasikan adalah, nilai RFI > 0,9 hingga 0,95


  3. Persimoni Fit Indiceds

    ukuran untuk menghubungkan goodness of fit model dengan sejumlah koefisien estimasi yang diperlukan untuk mencapai model fit. Tujuan dasarnya adalah untuk mendiagnosis apakah model fit telah tercapai dengan over fitting data yang memiliki banyak koefisien.


  4. Akaike's Information Criterion (AIC) dan Consistant Akaike's Information Index (CAIC)

    digunakan dalam perbandingan model, dimana nilai AIC dan CAIC default model harus dibandingkan dengan nilai AIC dan CAIC saturated dan independences model. Tingkat signifikansi yang direkomendasikan adalah, nilai nilai AIC dan CAIC default model < nilai AIC dan CAIC saturated dan independences model


  5. Expected Cross Validation Index (ECVI)

    mengukur penyimpangan antara model fitted matriks kovarians sampel yang dianalisis dibandingkan dengan matriks kovarians yang akan diperoleh jika menggunakan sampel yang lain. Tingkat signifikansi yang direkomendasikan adalah, nilai ECVI default model < nilai ECVI saturated dan independences model.


  6. Parsimonious Goodness of Fit Index (PGFI)

    memodifikasi dari GFI dan AGFI untuk mengukur parsimony model. Semakin tinggi nilai PGFI dan AGFI suatu model, semakin parsimony model tersebut. Tingkat signifikansi yang direkomendasikan adalah, nilai PGFI > 0,6


DILLAH AS 24 Agustus 2012
Pengukuran Model (Measurement Model)














Measurement model sering disebut Outer model, menunjukkan bagaimana variabel-variabel manifest/observerd variable (indikator) merepresentasi konstruk laten untuk diukur, yaitu dengan menguji validitas dan reliabilitas konstruk laten tersebut melalui analisis faktor konfirmatori dengan pendekatan MTMM (Multi Trait Multi Method) melalui uji validitas convergent dan validitas discriminant.


Validitas Discriminant, yaitu dengan membandingkan loading factor tiap indikator dengan cross loading seluruh indikator konstruknya.


Validitas convergent berhubungan dengan prinsip bahwa pengukur-pengukur (manifest variable) dari suatu konstruk seharusnya berkorelasi tinggi yang dapat dilihat dari nilai faktor loading untuk tiap indikator konstruk yang biasanya digunakan seperti berikut :


Validitas dan ReliabilitasParameterRule of Thumb
Validitas Convergentloading factor> 0,7 (confirmatory); 0,6 (explanatory)
Average Variance Extracted (AVE)> 0,5 (confirmatory, explanatory)
Validitas Discriminantcross loadingindikator loading > seluruh cross loading
akar kuadrat AVE dan korelasi antar konstruk latenakar kuadrat AVE > korelasi antar konstruk laten
ReliabilityCronbach's Alpha> 0,7 (confirmatory); > 0,6 (explanatory)
Composite Reliability> 0,7 (conformatory); 0,6 - 0,7 (explanatory)

DILLAH AS 23 Agustus 2012
Tahapan Analisis SEM














Tahapan Analisis SEM
  1. Spesifikasi model, mempunyai landasan teori yang kuat kemudian didefinisikan secara konseptual konstruk yang diteliti dan menentukan dimensionalitasnya, lalu tentukan arah kausalitas antar konstruk dengan menunjukkan hubungan yang dihipotesiskan dengan jelas.

  2. Identifikasi model, harus memiliki nilai yang unik dalam artian informasi yang terkumpul pada data empiris itu memiliki nilai yang unik yang cukup untuk menghasilkan solusi yang unik dalam menghitung parameter estimasi model.

  3. Estimasi model, setelah memenuhi spesifikasi dan identifikasi model selanjutnya tentukan metode estimasi apa yang akan digunakan dan tentukan besarnya jumlah sampel yang dibutuhkan.
    Ada 3 metode estimasi, yaitu :

    • Maximum Likelihood (ML), akan menghasilkan estimasi parameter yang terbaik (unbiased), apabila data yang digunakan memenuhi asumsi multivariate normality, dengan ukuran sampel antara 100 - 200. Goodness of fit model akan buruk jika ukuran/jumlah sampel lebih besar dari 400.

    • Generalized Least Square (GLS), hampir sama dengan ML namun disini masih diperkenankan robust (dilanggarnya asumsi multivariate normality) dengan ukuran sampel 200 - 300. Goodness of fit model akan buruk jika ukuran/jumlah sampel kurang dari 200.

    • Asymptotically Distribution Free (ADF) atau Weight Least Square (WLS) untuk ini tidak mensyaratkan data harus normal secara multivariate, dengan ukuran jumlah sampel yang dibutuhkan minimal 2000 - 3000, disamping itu kelemahan lainnya metode ini hanya bisa menggunakan 10 - 15 variabel.

    Pedoman jumlah sampel yang dibutuhkan untuk estimasi SEM (Hair, et.al, 2010)
    Jumlah Variabel LatenJumlah IndikatorCommunalitiesJumlah Sampel
    lebih dari 6 kurang dari 3 Low kurang dari 500
    kurang dari / sama dengan 5lebih dari 3High100 - 150
    kurang dari / sama dengan 5kurang dari 3Modestlebih dari 200
    kurang dari / sama dengan 5kurang dari 3Lowlebih dari 300

  4. Evaluasi model, menentukan fit tidaknya model dengan menilai hasil pengukuran model (measurement model) melalui CFA (Confirmatory Factor Analysis) dengan menguji validitas dan reliabilitas konstruk laten, kemudian dilanjutkan dengan evaluasi model struktural (Structured Model) secara keseluruhan dengan menilai kelayakan model melalui kriteria goodness of fit.

  5. Respesifikasi model, setelah melalui ke empat tahapan tersebut di atas jika penilaian tidak fit maka perlu dilakukan respesifikasi model dengan ketentuan harus didukung teori yang memadai.
    Respesifikasi model juga tidak melulu harus mendapatkan model yang fit, jika model telah direspesifikasi maka model yang baru harus di cross-validated dengan data yan baru.

DILLAH AS 15 Agustus 2012
Structural Equation Modelling (SEM)














Structural Equation Modelling (SEM) merupakan perkembangan dari general linear model (GLM) dengan regresi berganda sebagai bagiannya yang disebut juga sebagai perluasan dari analisis faktor.


Analisis SEM biasa terdiri dari dua sub model yaitu model pengukuran (measurement model) atau sering disebut outer model dan model struktural (sturctural model) atau sering disebut innear model.

Model pengukuran menunjukkan bagaimana variabel manifest (observed variabel/indikator) mempresentasi variabel laten untuk diukur. Sedangkan model struktural menunjukkan kekuatan estimasi antar variabel laten atau konstruk. SEM lebih mengutamakan pengujian confirmatory dibanding dengan pengujian explanatory sehingga lebih tepat digunakan untuk menguji teori dibanding dengan mengembangkan teori. SEM juga mampu untuk mengukur variabel yang tidak dapat diukur secara langsung, tetapi melalui indikator-indikatornya. Model yang akan diestimasi dalam SEM biasanya diasumsikan mempunyai hubungan kausalitas antara variabel laten dengan variabel observed sebagai indikator.

Variabel laten yang dibentuk dalam model persamaan struktural, indikatornya dapat berbentuk reflective merupakan indikator yang bersifat manifestasi terhadap konstruk dan sesuai dengan classical test theory yang mengasumsikan bahwa variance di dalam pengukuran score variabel laten merupakan fungsi dari true score ditambah error. Sedangkan indikator formative merupakan indikator yang bersifat mendefinisikan karakteristik atau menjelaskan konstruk.

Analsisi data menggunakan model persamaan struktural biasanya menggunakan matriks kovarians. Hal ini dikarenakan model penelitian menggunakan multi sampel (multiple group models) dan untuk mencegah terjadinya variance error. Dengan demikian, penggunaan matriks kovarians model penelitian yang kompleks sekalipun dapat diukur variansnya.

Matriks kovarians yang sering digunakan adalah Maximum Likelihood, adalah matriks kovarians di mana nilai estimasi parameter chi-square dan standar error tidak dapat dikoreksi dengan menggunakan matriks korelasi.

DILLAH AS 14 Agustus 2012
Terminologi dalam Analisis Jalur














Ada beberapa istilah (terminologi) yang lazim digunakan dalam analisis jalur antara lain:
  1. Model jalur. Model jalur ialah suatu diagram yang menghubungkan antara variabel bebas, perantara dan tergantung. Pola hubungan ditunjukkan dengan menggunakan anak panakh. Anak panah-anak panah tunggal menunjukkan hubungan sebab-akibat antara variabel-variabel exogenous atau perantara dengan satu variabel tergantung atau lebih. Anak panah juga menghubungkan kesalahan (variabel residue) dengan semua variabel endogenous masing-masing. Anak panah ganda menunjukkan korelasi antara pasangan variabel-variabel exogenous.
  2. Jalur penyebab untuk suatu variabel yang diberikan, meliputi pertama jalur-jalur arah dari anak-anak panah menuju ke variabel tersebut dan kedua jalur-jalur korelasi dari semua variabel yang lain yang mempunyai anak panah-anak panah menuju ke variabel yang sudah ada tersebut.

  3. Variabel exogenous. Variabel-variabel exogenous dalam suatu model jalur ialah semua variabel yang tidak ada penyebab-penyebab eksplisitnya atau dalam diagram tidak ada anak-anak panah yang menuju kearahnya, selain pada bagian kesalahan pengukuran. Jika antara variabel exogenous dikorelasikan maka korelasi tersebut ditunjukkan dengan anak panah dengan kepala dua yang menghubungkan variabel-variabel tersebut. Dalam istilah lain, dapat disebut pula sebagai varianden independent

  4. variabel endogenous. Variabel endogenous ialah variabel yang mempunyai anak panah menuju kearah variabel tersebut. Variabel yang termasuk di dalamnya ialah mencakup semua variabel perantara dan tergantung. Variabel perandara endogenous mempunyai anak panah yang menuju kearahnya dan dari arah variabel tersebut dalam suatu model diagram jalur. Sedang variabel tergantung hanya mempunyai anak panah yang menuju kearahnya atau dapat disebut juga sebagai variabel dependent

  5. Koefisien jalur / pembobotan jalur. Koefisien jalur adalah koefisien regresi standar atau disebut 'beta' yang menunjukkan pengaruh langsung dari suatu variabel bebas terhadap variabel tergantung dalam suatu model jalur tertentu. Oleh karena itu, jika suatu model mempunyai dua atau lebih variabel-variabel penyebab, maka koefisien-koefisien jalurnya merupakan koefisien-koefisien regresi parsial yang menunjukkan besarnya pengaruh satu variabel terhadap variabel lain dalam suatu model jalur tertentu yang mengontrol dua variabel lain sebelumnya dengan menggunakan data yang sudah distandarkan atau matriks korelasi sebagai masukan.

  6. Variabel Laten dapat didefinisikan sebagai variabel penyebab yang tidak dapat diobservasi secara langsung (unobservable). Pengamatan variabel tersebut adalah variabel indikator terukur yang dapat diobservasi secara langsung untuk mengukur variabel laten. Contoh : variabel laten motivasi. Tidak bisa diobservasi secara langsung, namun melalui variabel manifesnya (indikator) seperti kerja keras, pantang menyerah, tekun, teliti, dan lain-lain.

  7. Variabel Mediator/Intervening. Menurut Tuckman (dalam Sugiyono, 2007) variabel intervening adalah variabel yang secara teoritik mempengaruhi hubungan antara variabel independen dengan variabel dependent menjadi hubungan yang tidak langsung. Variabel ini merupakan variabel penyela/antara variabel independen dengan variabel dependen, sehingga variabel independen tidak langsung mempengaruhi berubahnya atau timbulnya variabel dependen. Menurut Baron dan Kenny dalam Ghazali (2011) suatu variabel disebut mediator jika variabel tersebut ikut mempengaruhi hubungan antara variabel prediktor (independen) dan variaberl kriteria (dependen)

DILLAH AS 13 Agustus 2012
Analisis Jalur (Path Analysis)














Dua buah contoh telah saya posting untuk analisis jalur, yaitu analisis regresi dengan variabel moderating dan analisis regresi dengan variabel intervening kali ini saya akan mencoba memberikan pengertian secara teoritis mengenai analisis jalur.

Penggertian Analisis Jalur

Analisis jalur adalah suatu teknik pengembangan dari regresi linear berganda. Teknik ini digunakan untuk menguji besarnya sumbangan (kontribusi) yang ditunjukkan oleh koefisien jalur pada setiap diagram jalur dari hubungan kausal antar variabel X1, X2 dan X3 terhadap Y serta dampaknya terhadap Z.

Menurut Robert D. Rutherford (1993), menyatakan bahwa "Analisis jalur ialah suatu teknik untuk menganalisis hubungan sebab akibat yang terjadi pada regresi berganda jika variabel bebasnya mempengaruhi variabel terikat tidak hanya secara langsung tetapi juga secara tidak langsung".

Menurut Paul Webley (1997), menyatakan bahwa "Analisis jalur merupakan pengembangan langsung bentuk regresi berganda dengan tujuan untuk memberikan estimasi tingkat kepentingan (magnitude) dan signifikansi hubungan sebab akibat hipotetikal dalam seperangkat variabel".

Menurut Al Rasyid (1993), menyatakan bahwa "Analisis jalur bertujuan untuk menerangkan akibat langsung dan tidak langsung seperangkat variabel bebas dan seperangkat variabel terikat".

Menurut Sanusi (2011), menyatakan bahwa "Analisis jalur menjelaskan hubungan kausalitas yang menunjukkan pengaruh langsung dan tidak langsung antarvariabel dalam analisis jalur antara lain : (1) hubungan antara variabel haruslah linear dan aditif, (2) semua variabel residu tidak mempunyai korelasi satu sama lain, (3) pola hubungan antara variabel adalah rekursif (searah), dan (4) skala dari semua skala pengukuran variabel adalah minimal internval". Di sini menurut Sanusi tidak lain adalah perlunya pemenuhan syarat dari asumsi klasik.


Karakteristik Analisis Jalur

Menurut Kusnedi (2008), karakteristik analisis jalur adalah metode analisis data multivariat dependensi yang digunakan untuk menguji hipotesis hubungan asimetris yang dibangun atas dasar kajian teori tertentu, dengan tujuan untuk mengetahui pengaruh langsung dan tidak langsung seperangkat variabel penyebab terhadap variabel akibat.

Menguji hipotesis hubungan asimetris yang dibangun atas kajian teori tertentu artinya yang diuji adalah model yang menjelaskan hubungan kausal antarvariabel yang dibangun atas kajian teori-teori tertentu. Hubungan kausal tersebut secara eksplisit dirumuskan dalam bentuk hipotesis direksional, baik positif maupun negatif.

DILLAH AS 10 Agustus 2012
Uji Chi-Kuadrat














Uji normalitas dengan Chi Kuadrat (X2) dipergunakan untuk menguji data dalam bentuk data kelompok dalam tabel distribusi frekuensi. Seperti halnya uji Liliefors, uji normalitas dengan uji Chi-Kuadrat dilakukan dengan langkah-langkah:

Pertama-tama, diawali dengan menentukan taraf signifikansi, misalkan 0,05 untuk menguji hipotesis:

Ho : Sampel berasal dari populasi berdistribusi normal.

Ha : Sampel tidak berasal dari populasi berdistribusi normal.

dengan kriteria pengujian:

Jika X2hitung < X2tabel terima Ho

Jika X2hitung > X2tabel tolak Ho

Kedua, lakukan langkah-langkah uji normalitas dengan chi kuadrat (X2) sebagai berikut:
  1. Membuat daftar distribusi frekuensi dari data yang berserakan ke dalam distribusi frekuensi data kelompok (jika data belum disajikan dalam tabel disitribusi frekuensi kelompok).
  2. Mencar rerata (mean) data kelompok
  3. Mencari simpangan baku data kelompok
  4. Tentukan batas nyata (tepi kelas) tiap interval kelas dan jadikan sebagai Xi(X1, X2, X3, ..., Xn). Kemudian lakukan konversi, setiap nilai tepi kelas (Xi) menjadi nilai baku Z1, Z2, Z3, ..., Zn. Dimana nilai baku Zi ditentukan dengan rumus Zi = (Xi - Xrata)/s
  5. Tentukan besar peluang setiap nilai Z berdasarkan tabel Z (luas lengkungan di bawah kurva normal standar dari 0 ke Z, dan disebut dengan F(Zi)).
  6. Tentukan luas tiap kelas interval dengan cara mengulangi nilai F(z) yang lebih besar diatas atau dibawahnya.
  7. Tentukan fe (frekuensi eskpektasi) dengan cara membagi luas kelas tiap interval dibagi number of cases (n)
  8. Masukkan frekuensi observasi (faktual) sebagai fo
  9. Cari nilai setiap interval
  10. Tentukan nilai X2hitung setiap interval
  11. Tentukan nilai X2tabel pada taraf signifikansi dan derajat kebebasan k-1 dengan k adalah banyaknya kelas/kelompok interval
  12. Bandingkan jumlah total X2hitung dengan X2tabel
  13. Apabila X2hitung < X2tabel maka sampel berasal dari populasi yang berdistribusi normal, dan jika X2hitung > X2tabel maka sampel berasal dari populasi tidak normal

Contoh:

Lakukan pengujian untuk mengetahui apakah data dalam tabel distribusi frekuensi berikut berasal dari populasi berdistribusi normal atau tidak?

Tabel Distribusi Frekuensi

Intervalf
30 - 395
40 - 4910
50 - 5920
60 - 6925
70 - 7917
Jml75


Langkah pertama, hitunglah nilai mean dan simpangan baku dari data tersebut seperti berikut.

Tabel Distribusi Frekuensi

IntervalfifiXi(Xi-Xrata)2f - (Xi-Xrata)2Jml
30 - 39534,5172,5608,443042,2
40 - 491044,5445,0215,112151,1
50 - 592054,51090,021,78435,6
60 -692564,51612,528,44711,1
70 - 791574,51117,5235,113526,7
Jml7544389866,7


Dari data diatas didapat,

nilai mean = 59,2.

nilai simpangan baku = 11,5

Selanjutnya tentukan nilai tepi kelas atas dan bawah setiap interval kelas, lalu kemudian konversilah setiap nilai tepi kelas tersebut menjadi nilai baku, dan seterusnya tentukan nilai (fo - fe)2/fe, seperti disajikan dalam tabel berikut.

Tabel Hitung Chi-Kuadrat

Intervalfotepi kls (Xi)ZiZtabelF(Zi)Lifo(fo - fe)2/fe
29,5-2,570,49990,0001
30 -3950,00540,405052,13
39,5-1,700,49450,0055
40 - 49100,100017,50750,83
49,5-0,840,39440,1056
50 - 59200,410430,78003,78
59,50,030,0160,5160
60 - 69250,392229,41500,66
69,50,890,40820,9082
70 - 79150,08756,562510,85
79,51,760,49570,9957
Jml751,007568,25


Dari hasil perhitungan dalam tabel tersebut, didapat nilai X2hitung = 68,25.

belajar spss, uji normalitas, uji chi-kuadrat

Sedangkan dari tabel Chi-Kuadrat untuk tingkat signifikansi 5% dan dk = 4 didapat nilai X2tabel = 9,49. Karena nilai X2hitung > X2tabel, maka Ho ditolak dan disimpulkan data atau sampel tidak berasal dari populasi berdidstribusi normal.

DILLAH AS 09 Agustus 2012
Uji Liliefors














Uji normalitas dengan uji liliefors dilakukan apabila data merupakan data tunggal atau data frekuensi tunggal, bukan data distribusi frekuensi kelompok. Uji normalitas menggunakan uji Liliefors (Lo) dilakukan dengan langkah-langkah sebagai berikut:

Pertama-tama, menentukan taraf signifikansi, yaitu misalkan pada tingkat signifikansi 5% atau 0,05 dengan hipotesis yang akan diuji:

Ho : Sampel tidak berasal dari populasi berdistribusi normal.

Ha : Sampel tidak berasal dari populasi berdistribusi normal.

dengan kriteria pengujian :

jika Lo = Lhitung < Ltabel, maka terima Ho jika Lo = Lhitung > Ltabel, maka tolak Ho

Kedua, lakukan langkah-langkah pengujian normalitas berikut :
  1. Data pengamatan Y1, Y2, Y3, ..., Yn dijadikan bilangan baku z1, z2, z3, ..., zn dengan menggunakan rumus :

    z1 = (Yi - Yrata2)/s
  2. Untuk setiap bilangan baku ini dengan menggunakan daftar distribusi normal baku, kemudian dihitung peluang :

    F(z1) = P(z = atau < z1)


  3. Selanjutnya dihitung proporsi z1, z2, z3, ..., zn yang lebih kecil atau sama dengan z1. Jika proporsi ini dinyatakan oleh S(z1) maka:

    S(z1) = (banyaknya z1, z2, z3, ..., zn)/n


  4. Hitung selisih F(z1) - S(z1), kemudian tentukan harga mutlaknya.


  5. Ambil harga yang paling besar di antara harga-harga mutlak selisih tersebut, sebagai harga Lo atau Lhitung

Untuk menerima atau menolak hipotesis nol (Ho), dilakukan dengan cara membandingkan Lo inni dengan nilai Lkritis atau Ltabel yang didapat dari tabel Liliefors untuk taraf nyata (signifikansi) yang dipilih, misal 0,05. Contoh:
  1. Lakukan uji normalitas dari hasil pengumpulan data suatu sampel-sampel berikut:

    23424354
    55666559
    66888899
  2. Sajikan data tersebut dalam tabel dan diurutkan, lalu hitung rerata (mean) dan simpangan baku seperti berikut:

    NoYififi-Yi(Yi-Yrata)2fi(Yi-Yrata)2
    122413,426,9
    23267,114,2
    343122,88,3
    455250,42,2
    565300,10,6
    684325,421,8
    7932711,133,3
    Jml24136107,3


    sehingga didapat

    nilai mean = 136/24 = 5,7

    dan nilai simpangan baku = 2,2
  3. Selanjutnya lakukan konversi setiap nilai mentah Yi menjadi nilai baku Zi, dan selanjutnya tentukan nilai Lo dengan langkah-langkah seperti berikut:

    NoYififkumZiZtabelF(Zi)S(Zi)|F(Zi)-S(Zi)|
    1222-1,700,45540,04460,08330,0387
    2324-1,230,39070,10930,16670,0574
    3437-0,770,27940,22060,29170,0711
    45512-0,310,1217 0,37830,50000,1217
    565170,150,05960,55960,70830,1487
    684211,080,3599 0,85990,87500,0151
    793241,540,4382 0,93821,00000,0618
    Jml24

    Dari hasil perhitungan dalam tabel tersebut, didapat nilai Lo = 0,1487, sedangkan dari tabel Liliefors untuk tingkat signifikansi 0,05 dan n = 24 didapat nilai Ltabel = 0,173.

    belajar spss, uji liliefors, uji normalitas

    Karena nilai Lo < Ltabel, maka Ho diterima dan disimpulkan data atau sampel berasal dari populasi berdistribusi normal.

Catatan tambahan untuk mencari nilai Zi ke dalam nilai Ztabel, F(Zi) dan S(Zi) ambil contoh nilai Zi baris pertama sebesar -1,70 maka dikonversikan ke nilai Ztabel sebesar 0,4554 dengan cara sebagai berikut :(lihat tabel) belajar spss, uji liliefors, uji normalitas, uji asumsi klasik
pertama cari terlebih dulu pada baris kemudian kolom. Pada baris cari nilai 1,7 kemudian pada kolom cari 0,0. sel antara baris 1,7 dan kolom 0,0 didapat nilai 0,4554. Nilai baku dari 1,70 yang dikonversi ke nilai baku tabel sebesar 0,4554.

Untuk nilai F(Zi) pada baris pertama sebesar 0,0446 didapat dengan cara sebagai berikut:

F(Zi) = Z < atau = Z1

F(Z1) = 0,5 - 0,4554 = 0,0446.

Untuk nilai S(Zi) pada baris pertama sebesar 0,0833 didapat dengan cara sebagai berikut:

S(Zi) = fi / (jml fi)

S(Z1) = 2 / 24 = 0,0833

DILLAH AS 08 Agustus 2012
Uji Normalitas














Pengujian normalitas dilakukan untuk mengetahui normal tidaknya suatu distribusi data. Hal ini penting diketahui berkaitan dengan ketepatan pemilihan uji statistik yang akan digunakan. Karena uji statistik parametrik mensyaratkan data harus berdistribusi normal. Apabila distribusi data tidak normal maka disarankan untuk menggunakan uji statistik nonparametrik, bukan uji statistik parametrik.

Uji normalitas dapat dilakukan dengan beberapa cara, antara lain dengan menafsirkan grafik ogive, koefisien tingkat kemencengan, Uji Liliefors, Uji Chi-Kuadrat, Uji Kolmogorov-Smirnov dan lain sebagainya.

Berikut ini akan dipaparkan sedikit mengenai uji grafik ogive dan uji koefisien tingkat kemencengan (skewness) yang digunakan untuk statistik deduktif (deskriptif) yang tidak membutuhkan pengujian.

Penentuan normal atau tidaknya suatu distribusi data dengan grafik ogive hanya dilakukan dengan menafsirkan grafik, yaitu:
  1. apabila grafik ogive lurus atau hampir lurus maka distribusi data ditafsirkan berdistribusi normal
  2. sedangkan kalau tidak lurus ditafsirkan data tidak berdistribusi normal

Penentuan normal atau tidaknya suatu distribusi data dengan koefisien kemencengan dilakukan dengan cara menghitung koefisien skewness atau tingkat kemencengan (TK), yaitau:
  1. apabila, -2 < TK < 2, data ditafsirkan berdistribusi normal


  2. sedangkan harga TK lainnya, data ditafsirkan berdistribusi tidak normal


Jadi penentuan kenormalan distribusi data dengan cara grafik ogive atau menghitung koefisien skewness hanya berlaku untuk statistik deduktif (deskriptif). Penentuan kenormalan suatu distribusi data statistik induktif harus dilakukan dengan pengujian. Dalam statistik induktif dilakukan pengujian, apakah suatu data sampel berasal dari populasi berdistribusi normal atau tidak. Penentuan kenormalan suatu distribusi data dapat dilakukan dengan cara pengujian Liliefors atau Chi-Kuadrat.

DILLAH AS 07 Agustus 2012