Top Banner
Catatan Expectation Maximization Algorithm oleh : Hendri Karisma (23512060) Program Studi Magister Informatika Sekolah Teknik Elektro dan Informatika Institut Teknologi Bandung 2013
7

Catatan kecil EM-Algorithm

Oct 23, 2015

Download

Documents

Hendri Karisma

Catatan kecil machine learning untuk expectation maximization algorithm
Welcome message from author
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
Page 1: Catatan kecil EM-Algorithm

Catatan Expectation Maximization Algorithm

oleh : Hendri Karisma (23512060)

Program Studi Magister Informatika

Sekolah Teknik Elektro dan Informatika

Institut Teknologi Bandung

2013

Page 2: Catatan kecil EM-Algorithm

2

Machine Learning

Pada dasarnya pembelajaran mesin dibagi menjadi beberapa tiga jenis, yaitu

supervised, unsupervised, dan reinforcement learning. Dari masing-masing jenis

pembelajaran mesin ini memiliki berbagai metode yang memiliki spesifikasi berbeda dan

dapat menyelesaikan masalah dengan kondisi yang berbeda satu sama lainnya, sehingga

berbagai kasus belum tentu dapat diselesaikan dengan algoritma yang sama, ataupun

dengan jenis pembelajaran mesin yang sama. Masing-masing jenis machine learning

memiliki karakteristik yang berbeda. Supervised Learning memiliki karakteristik masalah

yang diselesaikan biasanya berupa klasifikasi, dataset yang dimiliki oleh kasus yang

berbentuk klasifikasi biasanya selain memiliki atribut untuk setiap instances-nya namun

juga sudah memiliki kelas yang jelas, sehingga task selanjutnya dari hipotesis atau model

yang ditemukan adalah melakukan klasifikasi terhadap instance yang baru dan belum

memiliki label (belum diklasifikasi). Unsupervised Learning biasanya memiliki kata kunci

clustering atau melakukan peng-klusteran terhadap sekelompok data atau sekelompok

instances yang tidak memiliki label, sehingga memiliki informasi bahwa terdapat

sekumpulan data yang membentuk cluster, namun kita belum tahu apa pengetahuan atau

hipotesis yang membuat instances tersebut saling berkumpul (membuat kelompok)

menjadi satu cluster atau lebih. Sedang reinforcement learning biasanya berupa

permasalah yang membutuhkan aktifitas eksplorasi, sehingga cukup sesusai jika

digunakan untuk membangun suatu intelijen pada suatau game (terutama puzzle).

Dalam artikel ini akan sedikit dijelaskan mengenai Expectation Maximization

Algorithm dengan. Maximization Algorithm dengan menggunakan model probabilitas

pada distribusi gaussian.

Expectation Maximization Algortihm

Expectation maximization algorithm merupakan algoritma unsupservised

learningyang memiliki kemampuan untuk melakukan pencarian knowledge dari

sekumpulan data yang tidak memiliki label atau target class tertentu, dengan cara melihat

Page 3: Catatan kecil EM-Algorithm

3

nilai setiap instances yang didistribusikan kedalam Gaussian distribution, lebih tepatnya

adalah mixture Gaussian, lalu dilakukan iterasi menaik untuk mencari nilai likehood

tertenggi untuk setiap instance (melihat kedekatan instances terhadap setiap kluster).

Expectation Maximization Algorithm (EM Algorithm) merupakan

sendirimerupakan adalah suatu algoritma yang memanfaatkan mixture dari Gaussian

mixture. Pada dasarnya E-M Algorithm terdiri dari dua langkah yaitu, expectation dan

maximization. Melakukan perhitungan expektasi terhadap suatu nilai probabilitas

likelihood, lalu langkah kedua memperbaiki nilai probabilitas terebut dengan merubah

parameter pada mixture Gaussian sehingga mencapai maximum likelihood.

Terdapat beberapa hal yang perlu ditekankan dalam algoritma EM Algorithm yaitu:

1. Maximum Likelihood Estimation (MLE)

2. Mixtures of Gaussians

3. Estimation-Maximization (EM)

Maximum likelihood sendiri pada dasarnya merupkan teori probabilitas pada suatu

instances (misalkan π‘₯𝑖 ∈ 𝑋)terhadapsuatu target class𝑧𝑗 {j=1,2…n}. Dataset X

didistribusikan kedalam Gaussian Distribution seperti pada gambar 3.

Gambar 1sample distribusi normal

Page 4: Catatan kecil EM-Algorithm

4

Persamaan yang digunakan untuk Gaussian distribution adalah :

𝑃 π‘₯; πœ‡,𝜎2 =1

2πœ‹ .πœ‡π‘’ βˆ’

π‘₯βˆ’πœ‡ 2

2𝜎2 ……………………………..(1)

Dengan πœ‡ adalah mean dan 𝜎 merupakan variance atau standar deviasi.

πœ‡ =1

π‘š π‘₯π‘–π‘šπ‘–=1 ………………………………………………(2)

𝜎2 =1

π‘š (π‘₯𝑖 βˆ’ πœ‡)2π‘šπ‘–=1 ……………………………………...(3)

Dan setiap data π‘₯𝑖 akan dilakukan komputasi untuk setiap probabilitas terhadap

kluster 𝑧𝑗 .

𝑝(π‘₯) = 𝑝(π‘₯𝑗 ; πœ‡π‘— ,πœŽπ‘—2) =

1

2πœ‹πœŽπ‘—π‘’

(π‘₯π‘—βˆ’πœ‡ 𝑗 )2

2πœŽπ‘—2

π‘›π‘—βˆ’1

π‘›π‘—βˆ’1 ……………………(4)

Guna meningkat fitness dari distribusi cluster yang dibangun maka dilakukan

matriks covariance dan juga vector mean untuk meningkatkan akurasi dari Gaussian

distribution (Multivariate) yang dibuat.

πœ‡ = π‘₯𝑦 =

00 (π‘‘π‘’π‘“π‘Žπ‘’π‘™π‘‘); Ξ£ =

π‘₯ 𝑦π‘₯ 𝑦 = (π‘π‘œπ‘›π‘‘π‘œβ„Ž)

0.5 00 0.5

………………………(5)

Sehingga persamaan nilai π‘₯𝑖 menjadi:

𝑝(π‘₯; πœ‡, Ξ£) =1

2πœ‹ 𝑛2 |Ξ£|

12

𝑒 βˆ’1

2 π‘₯βˆ’πœ‹ π‘‡Ξ£βˆ’1(π‘₯βˆ’πœ‹) ……………………………(6)

Dan visualisasi dalam bentuk tiga dimensinya adalah seperti pada contoh berikut :

Page 5: Catatan kecil EM-Algorithm

5

Gambar 2 Contoh kondisi grafik dengan mean dan varian tertentu (multivariate)

Namun pada EM Algorithm menggunakan mixture Gaussian atau dengan kata lain

lebih dari satu Gaussian yang digunakan atau mencari mixture dari distribusi yang

didapatkan. EM Algorithm memiliki tugas untuk menemukan setiap Gaussian yang

terdapat pada distribusi mixture Gaussian dan mengembangkan setiap Gaussian yang

ditemukan pada kondisi optimum (sehingga model lebih fit) itulah yang disebut dengan

maximization, dan merupakan proses clustering.

Sehingga berikut adalah algoritma secara penuh E-M Algorithm.

Page 6: Catatan kecil EM-Algorithm

6

Repeat{

Expectation Step

π’˜π’‹(π’Š)

= 𝒑(𝒛(π’Š) = 𝒋|𝒙(π’Š);𝝓,𝝁,𝚺) =

1

2πœ‹ 𝑛2 |Ξ£j |

12

𝑒 βˆ’

12 π‘₯(𝑖)βˆ’πœ‡ 𝑗

π‘‡Ξ£βˆ’1(π‘₯(𝑖)βˆ’πœ‡ 𝑗 )

.πœ™

𝑀𝑗(𝑖)

π‘˜π‘—=1

π‘šπ‘–=1

Maximization

πœ™π‘— =1

π‘š 𝑀𝑗

(𝑖)

π‘š

𝑖=1

πœ‡π‘— = 𝑀𝑗

(𝑖)π‘₯(𝑖)π‘š

𝑖=1

𝑀𝑗(𝑖)π‘š

𝑖=1

Σ𝑗 = 𝑀𝑗

(𝑖) π‘₯(𝑖) βˆ’ πœ‡π‘— π‘₯

(𝑖) βˆ’ πœ‡π‘— π‘‡π‘š

𝑖=1

𝑀𝑗(𝑖)π‘š

𝑖=1

}

Contoh visualisasi expectation maximization ketika Gaussian didapatkan dan

proses EM-Algorithm telah dieksekusi.

Gambar 3 Contoh distribusi norma mixture gaussian (multivariate)

Page 7: Catatan kecil EM-Algorithm

7

Gambar 4 Contoh visualisasi hasil akhir E-M Algorithm

Referensi

1. Arthur, Samuel. (1959): Some Studies in Machine Learning Using the Game of Checkers,

IBM Journal of Research and Development Vol:44, 06 April 2010.

http://ieeexplore.ieee.org/xpl/freeabs_all.jsp?arnumber=5389202

2. Mitchell, Tom M. (1997) : Machine Learning,McGraw-Hill Science, Portland.

3. Andrew Ng, Lecture Notes: Machine Learning, Standford