Sie sind auf Seite 1von 11

See

discussions, stats, and author profiles for this publication at: https://www.researchgate.net/publication/283259080

Deteksi dan Tracking Objek untuk Sistem


Pengawasan Citra Bergerak

Conference Paper · October 2015

CITATIONS READS

0 656

2 authors, including:

Iping Supriana
Bandung Institute of Technology
258 PUBLICATIONS 187 CITATIONS

SEE PROFILE

Some of the authors of this publication are also working on these related projects:

Knowledge Model to support autonomous knowledge transfer between Knowledge-based Systems


View project

Generic animation method in IFS fractal model View project

All content following this page was uploaded by Iping Supriana on 27 October 2015.

The user has requested enhancement of the downloaded file.


Deteksi dan Tracking Objek untuk Sistem
Pengawasan Citra Bergerak

Luqman Abdul Mushawwir Iping Supriana


Informatika, Sekolah Teknik Elektro dan Informatika Informatika, Sekolah Teknik Elektro dan Informatika
Institut Teknologi Bandung Institut Teknologi Bandung
Bandung, Indonesia Bandung, Indonesia
abdulmushawwir@gmail.com iping@informatika.org

Abstrak—Analisis terhadap situasi pada lingkungan 2. Ketinggian dan sudut pandang kamera yang
tertentu merupakan hal yang sangat penting dalam sistem membuat ukuran dan dimensi objek menjadi tidak
pengawasan lingkungan, terutama dengan citra bergerak. pasti [1], [4], [7].
Teknik untuk melakukannya pun banyak diteliti pada 3. Adanya bayangan dari objek sehingga dapat
beberapa tahun terakhir. Ada beberapa persoalan yang mengganggu deteksi [5], [8].
harus dihadapi dalam melakukan deteksi dan tracking pada
citra bergerak, namun kebanyakan penelitian yang 4. Perbedaan intensitas cahaya, kontras, atau keadaan
dilakukan hanya menyelesaikan persoalan secara parsial. scene yang dapat mengganggu deteksi (seperti
Telah diajukan sebuah rangkaian algoritma untuk salju, hujan, malam hari, dan lain-lain) [1], [2], [9]
melakukan deteksi dan tracking objek untuk pengawasan Penelitian yang dilakukan sebelumnya dapat mengatasi
citra bergerak. Algoritma yang diajukan ini terdiri dari beberapa persoalan, namun hanya secara parsial dan tidak
deteksi objek dengan algoritma K-Means serta evaluasi menyeluruh. Jika berhasil dalam mengatasi satu persoalan,
spasial-temporal untuk tracking objek. Eksperimen biasanya akan mengalami kesulitan pada persoalan lain.
dilakukan terhadap lima dataset video dengan Makalah ini akan memperlihatkan sebuah teknik dan
karakteristik yang berbeda-beda. Efektivitas yang algoritma untuk deteksi dan tracking objek untuk sistem
diperoleh dari algoritma ini tinggi pada dataset yang pengawasan citra bergerak. Tujuan dari diajukannya teknik dan
memiliki latar statik, namun masih mendeteksi banyak algoritma ini adalah untuk menyelesaikan sebanyak-banyaknya
false positive pada dataset yang memiliki latar dinamik. persoalan yang dihadapi, sehingga diharapkan algoritma yang
Adapun waktu pemrosesan yang dilakukan pada algoritma dikembangkan dapat digunakan dalam analisis citra bergerak
ini masih harus ditingkatkan, karena mengalami pada segala situasi.
penurunan sekitar 50%-70% dari kecepatan video asli.
Adapun penjelasan dari makalah ini akan dilakukan sebagai
Kata Kunci—Deteksi objek, tracking objek, sistem pengawasan berikut: 1) pendahuluan yang berisi latar belakang persoalan dan
citra bergerak, K-Means, evaluasi spasial-temporal tujuan dari penelitian yang dilakukan, 2) teknik-teknik deteksi
dan tracking objek yang telah diteliti sebelumnya, untuk
I. PENDAHULUAN mengetahui state of the art dari deteksi dan tracking objek, 3)
Pada beberapa tahun belakangan, perkembangan metode solusi yang diajukan untuk deteksi dan tracking objek untuk
untuk analisis terhadap aktivitas dalam suatu lingkungan sistem pengawasan citra bergerak, 4) implementasi dan
meningkat dengan cukup pesat. Beberapa di antaranya adalah eksperimen yang dilakukan untuk algoritma yang diajukan, dan
sensor magnetik, gelombang, dan pemrosesan gambar bergerak. 5) penutup makalah yang berisi simpulan dan saran
Belakangan, metode yang banyak diteliti adalah metode untuk pengembangan untuk penelitian selanjutnya.
pemrosesan citra bergerak. Hal ini disebabkan oleh II. TEKNIK-TEKNIK DETEKSI DAN TRACKING OBJEK
meningkatnya kekuatan komputasi [1]–[3].
Pada bab ini, akan dijelaskan teknik-teknik deteksi dan
Bagian yang sangat penting dalam analisis dan pemrosesan tracking objek yang telah diteliti sebelumnya.
citra bergerak adalah deteksi dan tracking objek dalam citra [2].
Adapun dalam melaksanakan kedua bagian ini ada beberapa A. Deteksi Objek
persoalan yang harus diselesaikan, di antaranya: Deteksi objek bertujuan untuk memisahkan objek /
1. Oklusi atau penumpukan objek yang menyebabkan foregrund dari citra latar. Biasanya untuk melakukan deteksi
objek hanya terlihat sebagian / tertutup sama sekali objek, akan dibuat sebuah model latar pada sebuah citra
[1], [4]–[7]. bergerak berdasarkan nilai pixel yang masuk seiring waktu
[10]. Adapun teknik untuk mendapatkan nilai ini dapat
dikelompokkan menjadi temporal frame difference, 𝜇𝑡 = 𝛼𝐼𝑡 + (1 − 𝛼)𝜇𝑡−1 (4)
background subtraction, dan metoda statistik.
Nilai α diperoleh dari eksperimen, dan memiliki nilai
Temporal frame difference – metoda ini secara umum dengan range 0 sampai 1. Metoda running average memiliki
memanfaatkan perbedaan warna yang terjadi pada pixel ketika beberapa variasi dan peningkatan, beberapa di antaranya
ada benda / objek berubah bentuk atau bergerak [11]. dengan menambahkan kondisi pixel saat ini untuk dimasukkan
Persamaan (1) menunjukkan perhitungan perbedaan nilai pixel, ke dalam perhitungan nilai pixel latar sebagai berikut [11], [13],
dengan Δn adalah perbedaan nilai pixel pada frame ke-n dan In [19]:
adalah nilai intensitas pixel pada frame ke-n [12].
𝛼𝐼 + (1 − 𝛼)𝐵𝑡−1 , 𝑗𝑖𝑘𝑎 (𝑥, 𝑦) 𝑑𝑖𝑎𝑚
Δn = | In – In-1 | 𝐵𝑡 = { 𝑡 (5)
(1) 𝐵𝑡−1 , 𝑗𝑖𝑘𝑎 (𝑥, 𝑦) 𝑏𝑒𝑟𝑔𝑒𝑟𝑎𝑘

Setelah diperoleh nilai Δn, bagian gambar yang bergerak 𝛼𝐼 + (1 − 𝛼)𝐵𝑡−1 , 𝑗𝑖𝑘𝑎 (𝑥, 𝑦) 𝑑𝑖𝑎𝑚
𝐵𝑡 = { 𝑡 (6)
dapat dihitung dengan membandingkan nilai perbedaan 𝛽𝐼𝑡 + (1 − 𝛽)𝐵𝑡−1 , 𝑗𝑖𝑘𝑎 (𝑥, 𝑦) 𝑏𝑒𝑟𝑔𝑒𝑟𝑎𝑘
tersebut dengan sebuah batas yang telah ditentukan
sebelumnya. Batas tersebut biasanya sebesar 15% dari range Temporal median filter menggunakan nilai median dari
nilai intensitas yang diobservasi, sehingga jika nilai intensitas sekuens pixel untuk membentuk model latar. Median dapat
pixel berada pada jarak 0-255, maka batas dapat ditentukan di diperoleh dari n frame terakhir pada citra [18] atau dengan
sekitar nilai 40. Citra pergerakan (Mn) dapat diperoleh dengan mengikutkan nilai median yang telah dihitung sebelumnya [20]
operasi per pixel sebagai berikut [12]: untuk meningkatkan stabilitas nilai latar.
𝐼𝑛 , ∆𝑛 ≥ 𝑇 Ada beberapa asumsi yang digunakan dalam penggunaan
𝑀𝑛 = { (2)
0, ∆𝑛 < 𝑇 median untuk pemodelan latar [21]:

Metoda ini dapat divariasikan dengan menggunakan lebih 1. Latar hanya berubah sedikit seiring waktu,
dari dua frame dalam melakukan frame difference [13], [14] 2. Durasi setiap pixel berada pada latar lebih besar
atau menggunakan nilai threshold yang adaptif [11]. daripada durasi sebagai foreground,
3. Nilai pixel yang berada pada latar hanya berubah
Background subtraction – metode ini memodelkan latar sedikit, sedangkan untuk nilai pixel foreground
secara langsung dari pixel yang masuk dengan berbagai cara, akan sangat bervariasi.
seperti running average / approximate median filter atau
temporal median filter [10], [11], [15]–[17]. [10] ikut Jika median dihitung dengan membuat sampel nilai pixel
mengelompokkan metoda seperti gaussian mixture model atau maka perhitungan akan membutuhkan memori dan operasi
kernel density estimation pada kelompok ini, namun di sini yang mahal secara komputasi. Oleh karena itu, digunakan filter
model-model tersebut akan dibahas pada bagian selanjutnya. sederhana untuk memperkirakan nilai median dari nilai median
sebelumnya dan nilai pixel yang masuk sebagai berikut [17],
Inti dari metoda background subtraction adalah membuat [22]:
model latar untuk menjadi acuan dalam deteksi foreground.
Jika foreground pada frame ke-t dilambangkan dengan Ft, 𝐵 + 1, 𝐵𝑡 ≤ 𝐼𝑡
sedangkan nilai intensitas pixel dan nilai latar berturut-turut 𝐵𝑡 = { 𝑡−1 (7)
𝐵𝑡−1 − 1, 𝐵𝑡 > 𝐼𝑡
dilambangkan dengan It dan Bt, maka nilai foreground tersebut
dapat ditentukan dengan [11], [16]: Metoda statistik – Deteksi objek dapat juga dilakukan
dengan memodelkan nilai pixel yang masuk secara statistik
1, |𝐼𝑡 − 𝐵𝑡 | > 𝑇 [23]. Pada dasarnya, probabilitas kemunculan suatu pixel pada
𝐹𝑡 = { (3)
0, 𝑙𝑎𝑖𝑛𝑛𝑦𝑎 citra dapat dimodelkan dengan sebuah model distribusi
gaussian. Pfinder menggunakan model gaussian tunggal untuk
Adapun dalam menentukan nilai citra latar, dapat digunakan memodelkan latar pada citra bergerak, namun implementasinya
beberapa metode, di antaranya adalah running average filter kurang baik untuk video outdoor yang memiliki variasi yang
dan temporal median filter [10], [11], [16], [18]. banyak [19]. Model yang sering digunakan untuk video outdoor
di antaranya adalah gaussian mixture model dan non-
Running average filter membentuk citra latar dengan parametric model [24]–[26].
menghitung rata-rata (mean) dari nilai intensitas pixel yang
muncul [10], [11], [16]. Perhitungan rata-rata dilakukan dengan Gaussian mixture model merupakan model distribusi untuk
metode running average, yaitu perhitungan berdasarkan nilai menyimpan sejarah nilai pixel yang ada dalam video. Nilai
yang masuk (It), rata-rata pada frame sebelumnya (µt) dan pixel dimodelkan dalam K buah distribusi gaussian dengan
learning rate (α). Persamaan untuk menghitung rata-rata masing-masing memiliki nilai mean (µ) dan variansi (σ), serta
tersebut adalah [19]:
bobot (ω) yang berbeda-beda [25], [26]. Probabilitas sebuah Persamaan (15) menunjukkan probability density function
pixel dalam model adalah sebagai berikut: jika digunakan fungsi normal untuk fungsi kernel K. Persamaan
(16) menunjukkan reduksi dari persamaan (15) dengan
𝑃(𝑋𝑡 ) = ∑𝐾
𝑖=1 𝜔𝑖,𝑡 ∗ 𝜂(𝑋𝑡 , 𝜇𝑖,𝑡 , Σ𝑖,𝑡 ) (8) mengasumsikan nilai variansi dari setiap warna saling
independen [24].
1 𝑇 Σ−1 (𝑋 −𝜇 )
1
𝜂(𝑋𝑡 , 𝜇, Σ) = 𝑛 1 𝑒 −2(𝑋𝑡−𝜇𝑡) 𝑡 𝑡
(9) 1 1 1 𝑇 𝛴 −1 (𝑥 −𝑥 )
(2𝜋) 2 |Σ|2 𝑃𝑟(𝑥𝑡 ) = ∑𝑁
𝑖=1 𝑑 1 𝑒 −2(𝑥𝑡 −𝑥𝑖 ) 𝑡 𝑖 (15)
𝑁
(2𝜋) 2 |𝛴|2
Dengan K adalah jumlah distribusi gaussian, ωi,t adalah
2
perkiraan bobot (berapa porsi data dihitung dalam distribusi 1 (𝑥𝑡,𝑗 −𝑥𝑖,𝑗 )

1 1 2 𝜎2
gaussian) pada distribusi ke-i pada waktu t, µi,t adalah nilai 𝑃𝑟(𝑥𝑡 ) = ∑𝑁 ∏𝑑 𝑒 𝑗 (16)
𝑁 𝑖=1 𝑗=1
mean dari distribusi tersebut, Σi,t adalah matriks kovariansi dari √2𝜋𝜎𝑗2
distribusi tersebut, dan η adalah fungsi kerapatan probabilitas
gaussian sebagaimana tertulis pada persamaan (9) [25]. Model non-parametrik yang telah diajukan tersebut dapat
beradaptasi dengan background yang berubah-ubah dan dapat
Setiap nilai pixel Xt dicek terhadap K distribusi gaussian, mendeteksi objek secara akurat. Meskipun demikian,
hingga terjadi kecocokan. Kecocokan didefinisikan jika nilai perhitungan yang dilakukan pada model ini lebih kompleks dari
sebuah pixel berada pada 2.5 kali nilai simpangan baku sebuah perhitungan pada gaussian mixture model yang sebelumnya
distribusi. Kategori kecocokan ini dapat diubah dengan [10], [15], [24].
pengaruh pada kinerja algoritma [25].
B. Tracking Objek
Setelah itu, nilai-nilai dalam distribusi yang dimiliki akan Tracking objek pada citra bergerak merupakan sebuah cara
diperbaharui berdasarkan nilai pixel yang masuk [25]: untuk mengikuti elemen citra yang sudah dilokalisasi menjadi
objek yang bergerak seiring waktu secara otomatis dalam citra
𝜔𝑘,𝑡 = (1 − 𝛼)𝜔𝑘,𝑡−1 + 𝛼(𝑀𝑘,𝑡 ) (10) bergerak / video. Tracking memiliki peran penting dalam
pemrosesan video karena dapat menjadi satu patokan untuk
𝜇𝑡 = (1 − 𝜌)𝜇𝑡−1 + 𝜌𝑋𝑡 (11) mengekstrak beberapa perkiraan properti dari objek bergerak
dalam video [27], [28].
𝜎𝑡2 = (1 − 𝜌)𝜎𝑡−1
2
+ 𝜌(𝑋𝑡 − 𝜇𝑡 )𝑇 (𝑋𝑡 − 𝜇𝑡 ) (12)
Persoalan tracking objek pada citra bergerak sudah cukup
𝜌 = 𝛼𝜂(𝑋𝑡 |𝜇𝑘 , 𝜎𝑘 ) (13) banyak diteliti dan melahirkan beberapa algoritma yang
menjadi standar. Beberapa algoritma yang menjadi standar
Dengan α adalah learning rate dan Mk,t bernilai 1 untuk dalam memecahkan tracking objek di antaranya adalah
model yang cocok dan bernilai 0 untuk model yang tidak cocok. Kanade-Lucas Tracker dan MeanShift.
Paremeter µ dan σ tidak berubah untuk distribusi yang tidak
cocok, sedangkan untuk distribusi yang cocok, parameter- Kanade-Lucas Tracker merupakan sebuah teknik registrasi
parameter tersebut diperbaharui dengan persamaan (11)-(13). citra menggunakan informasi gradien spasial untuk
mencocokkan sebuah objek pada suatu citra dengan citra lain
Non-parametric model diajukan untuk memodelkan latar tanpa terpengaruh perbuahan bentuk pada citra [29]. Secara
pada citra bergerak berdasarkan kernel density estimation umum, metoda ini mengukur kecocokan antara sebuah jendela
(KDE) pada n nilai terakhir dari citra [10], [15], [24]. Hal ini fitur pada frame saat ini dan sebelumnya dengan perubahan sum
dilatarbelakangi citra latar yang bukan sesuatu yang statik, of squared intensity dari jendela tersebut [29], [30].
namun juga ada pengaruh benda-benda yang bergerak seperti
daun-daun, aliran air, hujan, dan lain-lain [24]. Persoalan transisi citra dapat dijelaskan sebagai berikut:
diberikan fungsi F(x) dan G(x) yang memberikan nilai pixel
Tujuan dari model yang dibuat adalah untuk mengambil pada lokasi x pada dua citra, dengan x ada vektor, maka kita
informasi terbaru dari sekuens citra, kemudian secara cepat akan mencari vektor jarak h yang meminimalkan perbedaan
memperbaharuinya. Untuk itu, dilakukan perkiraan density antara F(x+h) dan G(x) dengan x dalam sebuah region of
function untuk distribusinya. Untuk x1, x2, ..., xN sampel nilai interest R. Pengukuran dari perbedaan antara F(x+h) dan G(x)
intensitas dari sebuah pixel, sebuah probability density function adalah sebagai berikut [29]:
pada waktu t dapat diperkirakan secara non-parametrik
menggunakan kernel estimator K sebagai berikut [24]: 𝐿1 𝑛𝑜𝑟𝑚 = ∑𝑥∈𝑅 |𝐹(𝑥 + ℎ) − 𝐺(𝑥)| (17)
1 1⁄
𝑃𝑟(𝑥𝑡 ) = ∑𝑁
𝑖=1 𝐾(𝑥𝑡 − 𝑥𝑖 ) (14) 𝐿2 𝑛𝑜𝑟𝑚 = (∑𝑥∈𝑅[𝐹(𝑥 + ℎ) − 𝐺(𝑥)]2 ) 2 (18)
𝑁
𝑛𝑒𝑔𝑎𝑡𝑖𝑣𝑒 𝑜𝑓 𝑛𝑜𝑟𝑚𝑎𝑙𝑖𝑧𝑒𝑑 𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑡𝑖𝑜𝑛 =
− ∑𝑥∈𝑅 𝐹(𝑥+ℎ)𝐺(𝑥)
1 1 (19)
(∑𝑥∈𝑅 𝐹(𝑥+ℎ)2 ) ⁄2 (∑𝑥∈𝑅 𝐺(𝑥)2 ) ⁄2

Kemudian sebuah iterasi dilakukan untuk mencari


kemungkinan h kesamaan antara kedua objek tersebut dengan
iterasi Newton-Raphson sebagai berikut [29]:

𝑤(𝑥)[𝐺(𝑥)−𝐹(𝑥+ℎ𝑘 )]
ℎ𝑘+1 = ℎ𝑘 + ∑𝑥 / ∑𝑥 𝑤(𝑥) (18)
𝐹′(𝑥+ℎ𝑘 )

Secara umum, algoritma Lucas-Kanade yang banyak Figure 1. Hasil tracking dengan CAMShift
dilakukan saat ini berbasis pada algoritma berikut [31], [32]:
Dengan I(x,y) adalah nilai pixel pada posisi (x,y) pada citra.
1. Mendeteksi fitur yang baik (biasanya harris corners) Untuk melakukan tracking pada objek dengan MeanShift dapat
pada frame pertama dilakukan langkah-langkah sebagai berikut [35]:
2. Untuk setiap fitur, hitung pergerakan antara frame
yang berurutan 1. Pilih ukuran dan lokasi awal jendela pencarian pada
3. Hubungkan vektor gerakan pada frame untuk citra,
memperoleh jejak untuk setiap fitur 2. Hitung lokasi mean dalam jendela tersebut,
4. Keluarkan fitur-fitur baru dengan mendeteksi fitur 3. Geser lokasi jendela agar mean yang dimaksudn
pada setiap m (10 atau 15) frame menjadi di tengah jendela yang baru,
4. Ulangi langkah 2 dan 3 sampai konvergen, atau hingga
Ulangi langkah 1-3 untuk melakukan tracking pada fitur lokasi mean berubah lebih kecil dari batas yang
tersebut. ditentukan.

MeanShift – merupakan sebuah prosedur iteratif untuk Algoritma Continuously Adaptive Mean Shift (CAMShift)
meraih nilai rata-rata pada sebuah kumpulan data dengan cara merupakan pengembangan dari MeanShift dalam melakukan
bergeser (shifting). Algoritma ini dapat digunakan untuk tracking objek, dengan menambahkan adaptasi terhadap
clustering ataupun aplikasi lainnya yang memiliki persoalan distribusi data yang berubah secara dinamis [35], [36].
serupa, di antaranya dalam aplikasi computer vision, seperti Algoritma ini, untuk melakukan tugasnya, menambahkan
segmentasi objek maupun tracking [33], [34]. pengaturan terhadap ukuran jendela perhitungan, untuk
mengantisipasi perubahan distribusi data, terutama terhadap
Algoritma MeanShift menggunakan teknik non-parametrik ukuran distribusi [35]. Gambar I menunjukkan hasil tracking
untuk mencari mode dalam suatu distribusi data. Pencarian objek dengan CAMShift.
mode dilakukan dengan secara rekursif menghitung density
gradient hingga tercapai konvergensi (mencapai mode-nya). III. SOLUSI YANG DIAJUKAN
Algoritma ini pada awalnya tidak ditujukan untuk tracking Dalam menyelesaikan persoalan-persoalan yang dihadapi
objek, namun karena persoalan ini memiliki karakteristik yang saat deteksi dan tracking objek, dibutuhkan beberapa langkah
sama dengan clustering, maka algoritma ini dapat digunakan penyelesaian agar memperoleh hasil maksimal. Oleh karena itu,
secara efektif pada tracking objek [33], [35]. algoritma yang diajukan dapat dibagi menjadi 5 bagian, yaitu 1)
pre-processing, 2) deteksi foreground, 3) post-processing pixel
Dalam citra 2D diskrit, lokasi mean (centroid) dapat dan lokalisasi objek, 4) tracking objek, dan 5) post-precessing
ditemukan dengan momen ke-0 dan ke-1 di dalam jendela akhir.
pencarian seperti persamaan berikut [35]: A. Pre-processing
Pre-processing dilakukan dengan mengambil informasi
𝑀00 = ∑𝑥 ∑𝑦 𝐼(𝑥, 𝑦) (19) intensitas setiap pixel dari citra masukan. Hal ini dilakukan
karena intensitas warna sudah cukup mewakili kondisi warna
𝑀10 = ∑𝑥 ∑𝑦 𝑥𝐼(𝑥, 𝑦) ; 𝑀01 = ∑𝑥 ∑𝑦 𝑦𝐼(𝑥, 𝑦) (20) pada citra. Selain itu, penggunaan hanya satu jalur warna akan
menghemat waktu komputasi pemrosesan citra.
Centroid dapat dihitung dengan:
𝐼𝑥,𝑦 = 0.2989𝑅𝑥,𝑦 + 0.5870𝐺𝑥,𝑦 + 0.1140𝐵𝑥,𝑦 (22)
𝑀10 𝑀01
𝑥𝑐 = ; 𝑦𝑐 = (21) Persamaan (22) di atas menunjukkan persamaan untuk
𝑀00 𝑀00
membentuk intensitas pixel dari suatu citra. Ix,y adalah intensitas
pada pixel (x, y), sedangkan Rx,y, Gx,y,dan Bx,y berturut-turut
adalah nilai kanal merah, hijau, dan biru pada pixel (x, y).
B. Deteksi Foreground
Deteksi foreground dilakukan dengan memodelkan nilai
pixel sebagai gaussian mixture model. Sebuah gaussian mixture
model dengan K buah distribusi gaussian dengan mean µ dan
bobot w dibuat dengan parameter masing-masing sebagai
berikut:

256
𝜇𝑘(𝑥,𝑦,𝑡=0) = ∗𝑘 (23)
𝐾

1
𝑤𝑘(𝑥,𝑦,𝑡=0) = (24)
𝐾
Figure 2. Hasil deteksi foreground

Setelah distribusi gaussian terbentuk, setiap pixel yang C. Pixel Post-processing dan Lokalisasi Objek
masuk akan mencari distribusi yang paling dekat dari nilai pixel
tersebut. Nilai yang dibandingkan adalah nilai mean dari setiap Post-processing dilakukan untuk menghilangkan noise dari
hasil deteksi foreground, sehingga kualitas objek yang dideteksi
distribusi, sehingga algoritma ini mirip dengan algoritma
menjadi lebih baik. Pembersihan pixel dilakukan dengan
clustering K-Means. menggunakan operasi morfologi citra, yaitu dilation dan
erosion. Pada prinsipnya, kedua operasi ini menggunakan
Setelah dilakukan alokasi pixel tersebut, selanjutnya adalah matrix N x M, memasukkan kriteria perhitungan, kemudian
pembaruan nilai mean dan bobot dari masing-masing distribusi menetapkan pixel pada matrix tersebut menjadi 1 atau 0
berdasarkan keberadaan pixel yang sedang dievaluasi. Jika kt(x,y) berdasarkan kriteria tersebut
adalah distribusi yang dialokasikan untuk intensitas pixel It(x,y),
nilai distribusi hasil pembaruan adalah sebagai berikut: Operasi dilation berfungsi untuk memperbesar garis tepi
pada citra biner. Oleh karena itu, kriteria yang digunakan dalam
operasinya adalah jika ada tetangga dalam matrix yang memiliki
𝜇𝑘(𝑥,𝑦,𝑡+1) = nilai 1, maka seluruh pixel dalam matrix tersebut menjadi
bernilai 1. Sebaliknya, operasi erosion menggunakan kriteria
𝜇𝑘(𝑥,𝑦,𝑡) + (𝛼(𝐼𝑡(𝑥,𝑦) − 𝜇𝑘(𝑥,𝑦,𝑡) )) 𝑘 = 𝑘𝑡(𝑥,𝑦)
{ (25) jika ada tetangga dalam matrix yang bernilai 0, maka seluruh
𝜇𝑘(𝑥,𝑦,𝑡) 𝐿𝑎𝑖𝑛𝑛𝑦𝑎 pixel dalam matrix tersebut menjadi bernilai 0. Operasi erosion
berfungsi untuk mempersempit garis tepi citra dan
menghulangkan citra yang tidak signifikan (hanya bertebal 1
𝑤𝑘(𝑥,𝑦,𝑡+1) = pixel). Untuk mendapatkan hasil yang lebih baik, biasanya
operasi ini dilakukan dalam beberapa iterasi.
((1 − 𝛼) ∗ 𝑤𝑘(𝑥,𝑦,𝑡) ) + 𝛼 𝑘 = 𝑘𝑡(𝑥,𝑦)
{ (26) Untuk melakukan pembersihan foreground yang telah
(1 − 𝛼) ∗ 𝑤𝑘(𝑥,𝑦,𝑡) 𝐿𝑎𝑖𝑛𝑛𝑦𝑎 dilakukan sebelumnya, digunakan kombinasi dari operasi
dilation dan erosion. Kombinasi yang dilakukan adalah sebagai
Setelah itu, setiap pixel dapat ditentukan merupakan latar berikut:
atau foreground dengan membandingkan bobot distribusi 1. Operasi erosion sebanyak 2 iterasi
tersebut dengan batas (threshold) tertentu. Biasanya, nilai 2. Operasi dilation sebanyak 3 iterasi
threshold tersebut sama dengan 1 / K, namun bisa saja 3. Operasi erosion sebanyak 1 iterasi
disesuaikan dengan eksperimen yang dilakukan sebelumnya.
Kategori sebuah pixel kemudian dihitung dengan: Rangkaian operasi tersebut dilakukan dengan tujuan
menghilangkan noise berupa pixel kecil yang terdeteksi sebagai
1, 𝑤𝑘𝑡(𝑥,𝑦) ≥ 𝑇(𝑥𝑦,) foreground dan menutup daerah foreground yang terpisah satu
𝐹(𝑥,𝑦) { (27) sama lain, namun masih dekat.
0, 𝐿𝑎𝑖𝑛𝑛𝑦𝑎
Setelah dilakukan post-processing, dilakukan lokalisasi
Gambar II merupakan hasil deteksi foreground dengan terhadap foreground agar diperoleh objek yang diharapkan
algoritma ini. Pixel putih menunjukkan pixel foreground (selanjutnya dapat disebut blob). Untuk melakukan lokalisasi
sedangkan yang hitam menunjukkan pixel latar. objek dengan baik, diperlukan dua langkah. Langkah pertama
adalah melokalisasi seluruh objek yang ada dengan membentuk
kontur dari foreground yang dibuat. Kontur ini akan menjadi
dasar untuk langkah selanjutnya yaitu evaluasi hubungan
spasial antar objek.

Langkah selanjutnya adalah melakukan evaluasi hubungan


spasial antar objek. Objek yang telah diidentifikasi dan
dibentuk konturnya pada langkah sebelumnya kemudian dicari
tetangga yang dekat dengannya. Kedekatan ini dapat Selanjutnya setiap kasus akan ditangani sebagai berikut:
dilambangkan dengan jarak antara kontur objek, dengan
1) Satu ke satu
mengukur jarak antara titik pusat kedua objek:
Untuk korespondensi satu ke satu, artinya satu objek
𝑟𝑐(𝑚,𝑛) = |𝑐𝑚 − 𝑐𝑛 | (28) pada frame ke-t dekat tepat dengan satu objek pada
frame ke-(t-1). Pada kasus seperti ini, akan
Jika jarak tersebut memenuhi syarat (lebih kecil dari batas dibandingkan fitur warna pada kedua objek ini, dengan
yang ditentukan), maka fitur dari kedua objek ini akan persamaan (29). Jika perbedaan fitur warna pada
dibandingkan. Fitur yang dibandingkan adalah warna dari kedua objek ini lebih kecil dari batas yang ditetapkan
objek. Persamaan (29) menunjukkan perbedaan intensitas (threshold), dapat disimpulkan bahwa kedua objek
warna antara dua buah objek. Jika warna dominan dari kedua tersebut sama, oleh karena itu dapat dilakukan track
objek tersebut serupa, maka dapat disimpulkan kedua objek dari objek t-1 ke objek t.
sesungguhnya adalah objek yang sama. Persamaan (30)
menunjukkan kriteria kesamaan dua buah objek yang 2) Satu ke nol
dievaluasi, dengan Tr adalah batas jarak maksimal dan TI adalah
batas perbedaan intensitas maksimal untuk dikategorikan Objek yang ada pada frame ke-t sebelumnya (pada
serupa. frame ke-(t-1)) belum pernah ada. Pada kondisi ini,
ada dua kemungkinan. Kemungkinan yang pertama
∆𝐼𝑚,𝑛 = |𝐼𝑚 − 𝐼𝑛 | (29) adalah terciptanya objek bergerak baru atau
terbentuknya “hantu” yang disebabkan ada benda yang
𝑟𝑐(𝑚,𝑛) ≤ 𝑇𝑟 ∩ ∆𝐼𝑚,𝑛 ≤ 𝑇𝐼 (30) sebelumnya berhenti kemudian bergerak (latar belum
masuk distribusi latar).
Jika kedua syarat tersebut terpenuhi, maka kedua objek
Pada awalnya, begitu terdeteksi objek yang terbentuk
tersebut akan dianggap sama dan selanjutnya akan digabungkan
menjadi satu objek. Gambar III menunjukkan hasil lokalisasi ini akan langsung dimasukkan ke daftar objek yang
objek yang dilakukan. ada. Untuk mengetahui kategori dari objek tersebut,
akan dilakukan pengecekan terhadap sejarah gerakan
objek tersebut selama beberapa frame ke depan. Jika
D. Tracking Objek tidak ada pergerakan hingga misalnya 10 frame, maka
objek tersebut akan dianggap “hantu” dan akan
Tracking objek pada gambar bergerak dilakukan dengan
dihilangkan dari daftar objek yang terdeteksi.
membandingkan objek yang berhasil dilokalisasi pada frame ke-
t dengan objek pada frame ke-(t-1). Pembandingan akan
dilakukan terhadap jarak dan fitur dari objek. Hasil dari operasi 3) Nol ke satu
ini kemudian akan diproses sehingga dapat menangani beberapa
kasus khusus misalnya penumpukan / oklusi yang dialami oleh Hal ini terjadi jika objek yang ada pada frame ke-(t-1)
objek yang terpisah, pemisahan dari objek yang bertumpuk, menghilang pada frame ke-t. Ada tiga kemungkinan
objek yang berhenti, “hantu” objek, dan lainnya. yang terjadi, yaitu objek berdiam untuk waktu yang
cukup lama, sehingga akan ikut ke dalam distribusi
Setiap objek yang berhasil dideteksi dan terdaftar pada frame latar, objek pada frame ke-t tidak terdeteksi sebagai
ke-t dihitung jaraknya dengan objek yang terdaftar pada frame
objek (karena warnanya serupa dengan latar), atau
ke-(t-1) dengan persamaan (28). Dari hasil perhitungan jarak
objek memang menghilang dari frame.
tersebut, dibuat korespondensi objek jika jarak tersebut kurang
dari batas/threshold yang ditentukan. Korespondensi antar objek
tersebut memiliki beberapa kemungkinan, yaitu 1) satu ke satu, Untuk mengetahui hal ini, dilakukan pengecekan fitur
2) satu ke nol, 3) nol ke satu, 4) satu ke banyak, dan 5) banyak warna objek pada frame ke-(t-1) dengan posisi yang
ke satu. sama pada frame ke-t (29). Jika fitur warna
menunjukkan kesamaan, artinya objek berdiam di
tempat, dan dilakukan track antara objek pada frame
ke-(t-1) dengan posisi yang sama pada frame ke-t. Jika
tidak sama, maka akan dicek objek pada tempat
prediksi pada frame ke-t berdasarkan jalur objek yang
ditemukan sebelumnya. Jika tidak cocok, maka objek
akan dihilangkan.

4) Satu ke banyak

Pada kasus ini, satu buah objek pada frame ke-t terkait
Figure 3. Hasil lokalisasi objek dengan lebih dari satu buah objek pada frame ke-(t-1).
Untuk kasus ini, ada dua kemungkinan yang terjadi IV. EKSPERIMEN
pada objek tersebut, yaitu objek-objek tersebut Algoritma yang diajukan pada bagian III kemudian
mengalami oklusi atau penumpukan pada frame ke-t diimplementasi dan dilakukan eksperimen untuk mengetahui
atau objek-objek pada t-1 tersebut merupakan satu tiga aspek kinerja, yaitu efektivitas, efisiensi, dan robustness.
objek yang terpisah karena deteksi yang kurang Efektivitas adalah seberapa baik teknik ini dalam
sempurna. menyelesaikan persoalan deteksi dan tracking objek untuk
pengawasan gambar bergerak. Efisiensi adalah seberapa cepat
Untuk mengetahuinya, dilakukan dua buah teknik ini dieksekusi dan faktor-faktor apa yang
pengecekan. Pertama adalah pengecekan jalur dari mempengaruhinya. Robustness membahas apakah teknik ini
objek pada t-1. Dari jalur yang disimpan, kita dapat dapat digunakan dalam semua keadaan (siang / malam, cuaca
memprediksi jalur yang akan ditempuh selanjutnya. buruk, sudut kamera rendah, dan lain-lain).
Jika hasil prediksi tempat objek tersebut pada t tepat
(ada citra dengan fitur sama pada t di jalur hasil Adapun perangkat komputasi yang digunakan untuk
prediksi tersebut), maka selanjutnya adalah pengujian algoritma ini adalah sebagai berikut:
membandingkan ukuran dan fitur warna objek yang
ada pada frame ke-t dengan gabungan objek yang ada - Prosesor Intel(R) Core(TM) i5-3230M CPU @ 2.60
pada frame ke-(t-1). Jika kedua ini cocok, artinya GHz (4 core)
terjadi deteksi kurang sempurna pada frame ke-(t-1) - RAM 4.00 GB
sehingga objek akan digabungkan. Jika tidak, - Sistem Operasi Windows 7 Professional 64-bit
kesimpulannya adalah objek-objek tersebut - Implementasi dengan Python 2.7.7 dengan library
mengalami penumpukan/oklusi dan tetap akan di- numpy untuk komputasi array dan OpenCV untuk
track sebagai objek-objek yang terpisah. input/output video.
5) Banyak ke satu Dataset yang akan digunakan untuk pengujian merupakan
citra outdoor yang mewakili untuk keadaan-keadaan yang
Beberapa objek yang dideteksi pada frame ke-t dapat diinginkan. Tabel I menunjukkan karakterstik dataset yang
berkaitan dengan hanya satu objek pada frame ke-(t- digunakan pada eksperimen algoritma ini.
1). Hal ini dapat menandakan beberapa kemungkinan,
yaitu objek yang asalnya bertumpuk menjadi berpisah TABLE I. KARAKTERISTIK DATASET YANG DIGUNAKAN
atau objek pada frame ke-t yang terdeteksi secara tidak Karakteristik
sempurna sehingga terdeteksi menjadi beberapa objek.
No. Dataset Jumlah Kontras Karakteristik
Ukuran FPS
Untuk mengetahui hal tersebut, dilakukan Objek Warna Latar
penggabungan terhadap objek-objek pada frame ke-t, 1 PETS2009 340 x 260 25.0 Sedang Tinggi Statik
kemudian dilakukan pembandingan dari segi ukuran 2 Jalan raya 482 x 269 20.0 Sedang Rendah Statik
dan fitur warna. Jika dari keduanya tidak ada perbedaan
pelabuhan
yang signifikan, maka dapat disimpulkan bahwa yang
terjadi adalah objek yang terdeteksi secara tidak 3 IP-camera 640 x 360 25.0 Tinggi Tinggi Statik
sempurna. Adapun jika ternyata perbedaan tersebut 4 Ori- 161 x 121 10.0 Rendah Tinggi Dinamik
cukup signifikan, maka akan dikategorikan sebagai WaterObject
benda bertumpuk yang berpisah. 5 Traffic-snow 768 x 576 30.0 Sedang Rendah Dinamik

Gambar 4 menunjukkan hasil tracking pada citra bergerak.


Setiap objek akan ditandai dengan ID yang dijaga pada setiap A. Efektivitas
frame dengan tracking.
Efektivitas merupakan hal yang sangat penting dalam
implementasi sebuah algoritma. Hal ini akan menunjukkan
seberapa baik algoritma yang diajukan dalam menyelesaikan
persoalan yang dihadapi. Efektivitas untuk deteksi dan tracking
objek akan dihitung berdasarkan perbandingan antara hasil
deteksi dan kebenaran di lapangan berdasarkan pengamat
manusia. Perbandingan ini akan dikuantifikasi berdasarkan
perhitungan confusion matrix dan precision, recall, serta f-
measure.
Figure 4. Hasil evaluasi temporal terhadap objek

Tabel II menunjukkan hasil perhitungan precision, recall,


dan f-measure untuk masing-masing dataset.
TABLE II. HASIL PRESICION, RECALL, DAN F-MEASURE DARI EKSPERIMEN beberapa objek salah dideteksi dan berujung pada false positive.
No. Dataset Precision Recall F-measure Ada catatan juga pada video ini, yaitu beberapa objek hanya
1 PETS2009 90.5 % 90.5 % 90.5 %
terdeteksi sebagian saja. Pada video ketiga (ip-camera),
kekurangan disebabkan ramainya objek yang ada, serta saling
2 Jalan raya 85.7 % 93.7 % 89.5 %
bertumpuknya objek yang lewat karena sudut pandang kamera
pelabuhan yang terlalu datar, sehingga ada beberapa objek yang
3 IP-camera 91.9 % 82.6 % 87.0 % seharusnya terdeteksi sebagai objek yang terpisah, namun
4 Ori-WaterObject 14.3 % 100 % 25.0 % terdeteksi sebagai objek yang sama.
5 Traffic-snow 21.8 % 100 % 35.8 %
Untuk dataset keempat (water-object) dan kelima (traffic-
snow) memperoleh hasil yang kurang baik karena banyak
terdapat noise dari latar yang sangat dinamik dan berujung pada
B. Efisiensi banyaknya false positive. Namun noise dari latar yang dinamik
Algoritma deteksi dan tracking objek untuk citra bergerak tersebut dapat berkurang setelah model latar beradaptasi untuk
tidak dapat digunakan dengan baik jika berjalan dengan waktu beberapa frame.
yang lama. Oleh karena itu, efisiensi dari algoritma yang
diajukan dihitung untuk mengukur apakah algoritma tersebut Akurasi dapat ditingkatkan dengan menambahkan model
layak untuk digunakan, serta faktor-faktor apa saja yang objek yang diinginkan ke dalam algoritma tersebut, sehingga
mempengaruhinya. Kinerja algoritma akan dihitung dengan pembentukan objek dapat lebih baik. Selain itu, dapat juga
frame per second (fps). diberikan waktu awal untuk membentuk model latar yang lebih
baik untuk mengurangi noise dari latar yang dinamik. Jika
Waktu yang dibutuhkan untuk memproses setiap frame perlu, model yang dihasilkan dapat lebih banyak, namun tentu
berbeda-beda. Oleh karena itu, akan diukur fps minimum, fps saja akan membutuhkan waktu pemrosesan yang lebih lama.
maksimum, dan fps rata-rata untuk pemrosesan yang dilakukan.
Tabel III menunjukkan hasil perhitungan tersebut pada dataset Dari segi efisiensi, dilihat pada tabel III, kecepatan
yang diujikan. pemrosesan citra bergerak pada beberapa dataset belum
mencapai kecepatan real-time, masih berkisar di angka 30-
TABLE III. FPS MINIMUM, MAKSIMUM, DAN RATA-RATA PADA DATASET 50%. Adapun kecepatan pemrosesan ini dipengaruhi oleh
YANG DIUJIKAN
beberapa hal, antara lain ukuran citra, kompleksitas citra, dan
No. Dataset FPS FPS FPS jumlah objek yang terdeteksi dalam citra.
minimum maksimum rata-
rata
Beberapa solusi yang dapat diajukan untuk persoalan
efisiensi algoritma ini antara lain adalah melakukan frame skip,
1 PETS2009 11.11 18.51 16.59 yaitu tidak melakukan pemrosesan untuk setiap frame, tetapi
2 Jalan raya 5.00 11.63 9.53 setiap n frame (n bisa diisi angka yang kecil, seperti 2 atau 3).
pelabuhan Dengan ini, alokasi waktu pemrosesan akan lebih banyak.
3 IP-camera 2.81 5.88 5.26 Selain itu, untuk menangani kompleksitas citra, bisa
diberlakukan batas frame untuk mulai melakukan tracking.
4 Ori-WaterObject 15.62 76.92 63.42
Beberapa frame awal dapat dilakukan untuk membentuk citra
5 Traffic-snow 0.41 2.81 2.23 latar yang bagus sehingga objek-objek noise lebih sedikit
terdeteksi. Selain itu implementasi pemrograman untuk
algoritma ini juga masih dapat ditingkatkan untuk menambah
C. Diskusi kecepatan.
Dari hasil pengujian yang dilakukan, dapat dilihat beberapa
V. PENUTUP
hal dalam masukan video yang mempengaruhi penggunaan dan
kualitas hasil dari algoritma yang diajukan. Hal-hal tersebut A. Simpulan
antara lain adalah ukuran citra input, kepadatan benda bergerak, 1. Deteksi dan tracking yang diajukan dengan algoritma
noise pada latar, kualitas gambar untuk masukan, dan sudut K-Means dan evaluasi spasial-temporal dapat
pandang pengambilan gambar. melakukan deteksi dan tracking objek dengan baik
pada video dengan latar statik, namun masih memiliki
Untuk efektivitas, dilihat pada tabel II, pengujian dataset kekurangan untuk video dengan latar dinamik.
PETS2009 memiliki hasil yang paling baik, karena objek-objek Meskipun begitu, algoritma ini dapat beradaptasi
pada video tersebut jelas terpisah dan memiliki kualitas yang dengan baik dengan latar dinamik setelah beberapa
bagus, walaupun masih ada beberapa kekurangan. Untuk frame.
dataset kedua dan ketiga, hasil yang diperoleh baik, namun 2. Implementasi yang diajukan masih kurang baik dari
masih bisa ditingkatkan. Hal ini disebabkan oleh kontras warna segi efisiensi, terutama dalam melakukan deteksi dan
pada video kedua (jalan raya pelabuhan) kurang baik sehingga
tracking objek pada latar dinamik dan objek yang [9] R. Cucchiara, M. Piccardi, a. Prati, and N. Scarabottolo, “Real-time
detection of moving vehicles,” Proc. 10th Int. Conf. Image Anal.
banyak.
Process., no. Iciap 99, pp. 1–13, 1999.
3. Dalam melakukan deteksi dan tracking, algoritma
yang diajukan dapat melakukannya dengan baik pada
[10] M. Piccardi, “Background subtraction techniques: a review,” 2004
video pengawasan dengan kamera stasioner. Hal ini IEEE Int. Conf. Syst. Man Cybern. (IEEE Cat. No.04CH37583), vol.
dapat dilihat dari angka false negative yang rendah 4, pp. 3099–3104, 2004.
pada setiap dataset yang diujikan.
[11] Y. Dedeoglu, “Moving Object Detection, Tracking and
B. Saran Pengembangan Classification for Smart Video Surveillance,” Bilkent University,
2004.
1. Akurasi deteksi dan tracking objek dapat ditingkatkan
dengan penggunaan model objek yang ingin
[12] a J. Lipton, H. Fujiyoshi, and R. S. Patil, “Moving target
ditemukan dan model latar yang lebih classification and tracking from real-time video,” Proc. Fourth
menggambarkan latar situasi pada video. Selain itu IEEE Work. Appl. Comput. Vis. WACV98 Cat No98EX201, vol. 98,
dapat juga ditambahkan kriteria lain dalam post- no. 2, pp. 8–14, 1998.
processing agar objek yang diperoleh lebih jelas.
[13] R. T. Collins, A. J. Lipton, T. Kanade, H. Fujiyoshi, D. Duggins, Y.
2. Untuk meningkatkan efisiensi pemrosesan algoritma, Tsin, D. Tolliver, N. Enomoto, O. Hasegawa, P. Burt, and L.
dapat dilakukan peningkatan sebagai berikut: Wixson, A System for Video Surveillance and Monitoring, vol. 823,
no. 8. 2000.
a. Implementasi paralelisasi untuk masing-
masing langkah pada algoritma yang [14] L. Wang, W. Hu, and T. Tan, “Recent developments in human
motion analysis,” Pattern Recognit., vol. 36, no. 3, pp. 585–601,
diajukan. 2003.

b. Penggunaan frame skip agar video keluaran [15] S. S. Cheung and C. Kamath, “ROBUST TECHNIQUES FOR
bisa selaras dengan video masukan. BACKGROUND SUBTRACTION IN URBAN TRAFFIC
VIDEO,” IS&T/SPIE’s Symp. Electron. Imaging, pp. 881–892,
2004.
REFERENSI
[16] J. Rahman, “Motion Detection for Video Surveillance,” 2008.
[1] N. Buch, S. A. Velastin, and J. Orwell, “A Review of Computer
Vision Techniques for the Analysis of Urban Traffic,” IEEE Trans. [17] J. Zhu, “A Novel Method for Traffic Object Detection Based on
Intell. Transp. Syst., vol. 12, pp. 920–939, 2011. Improved Approximated Median Filter,” vol. 8, no. August, pp.
2253–2261, 2012.
[2] V. Kastrinaki, M. Zervakis, and K. Kalaitzakis, “A survey of video
processing techniques for traffic applications,” Image Vis. Comput., [18] B. P. L. Lo and S. A. Velastin, “Automatic congestion detection
vol. 21, pp. 359–381, 2003. system for underground platforms,” 2001.

[3] B. D. Stewart, I. Reading, M. S. Thomson, T. D. Binnie, K. W. [19] C. Wren and A. Azarbayejani, “Pfinder: Real-time tracking of the
Dickinson, and C. I. Wan, “Adaptive lane finding in road traffic human body,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 19, no.
image analysis,” in Seventh International Conference on Road 7, pp. 780–785, 1997.
Traffic Monitoring and Control, 1994.

[20] R. Cucchiara, C. Grana, M. Piccardi, and A. Prati, “Detecting


[4] N. Buch, J. Orwell, and S. a. Velastin, “Detection and classification Objects , Shadows and Ghosts in Video Streams by Exploiting
of vehicles for urban traffic scenes,” in International Conference of Color and Motion Information,” 2003.
Visual Information Engineering, 2008, pp. 182–187.

[21] L. Su and H. Chen, “Video-background update based on Median


[5] S. Kamijo, K. Ikeuchi, and M. Sakauchi, “Vehicle tracking in low- Filtering,” 2010.
angle and front-view images based on spatio-temporal markov
random field model,” in 8th World Congress on ITS, Sydney Oct,
2001, pp. 1–12. [22] N. McFarlane and C. Schoeld, “Segmentation and tracking of
piglets in images,” 1995.
[6] D. Neelima and G. Mamidisetti, “a Computer Vision Model for
Vehicle Detection in Traffic Surveillance,” Ijesat.Org, no. 5, pp. [23] T. Bouwmans, F. El Baf, and B. Vachon, “Background Modeling
1203–1209, 2012. using Mixture of Gaussians for Foreground Detection - A Survey,”
Recent Patents Comput. Sci., vol. 1, no. 3, pp. 219–237, 2008.
[7] J. Zhou, D. Gao, and D. Zhang, “Moving Vehicle Detection for
Automatic Traffic Monitoring,” IEEE Trans. Veh. Technol., vol. 56, [24] A. Elgammal, D. Harwood, and L. Davis, “Non-parametric model
no. 1, pp. 51–59, Jan. 2007. for background subtraction,” Comput. Vision—ECCV 2000, vol.
1843, pp. 751–767, 2000.
[8] Y. Park, “Shape-resolving local thresholding for object detection,”
Pattern Recognit. Lett., vol. 22, no. 8, pp. 883–890, 2001. [25] C. Stauffer and W. E. L. Grimson, “Adaptive background mixture
models for real-time tracking,” Proc. 1999 IEEE Comput. Soc.
Conf. Comput. Vis. Pattern Recognit. Cat No PR00149, vol. 2, no. c, [31] S. Baker and I. Matthews, “Lucas-Kanade 20 years on: A unifying
pp. 246–252, 1999. framework,” Int. J. Comput. Vis., vol. 56, no. 3, pp. 221–255, 2004.

[26] Z. Zivkovic, “Improved adaptive Gaussian mixture model for [32] Intel-Corporation, “Open Source Computer Vision Library
background subtraction,” Proc. 17th Int. Conf. Pattern Recognition, Reference Manual,” 2001.
2004. ICPR 2004., vol. 2, no. 2, 2004.
[33] Y. Cheng, “Mean shift, mode seeking, and clustering,” IEEE Trans.
[27] W. Luo, J. Xing, X. Zhang, X. Zhao, T. Kim, and C. V May, Pattern Anal. Mach. Intell., vol. 17, no. 8, pp. 790–799, 1995.
“Multiple Object Tracking : A Review,” Comput. Vis. Pattern
Recognit., pp. 1–39, 2015.
[34] D. Comaniciu, P. Meer, and S. Member, “Mean Shift: A Robust
Approach Toward Feature Space Analysis,” vol. 24, no. 5, pp. 603–
[28] E. Trucco and K. Plakas, “Video Tracking : A Concise Survey,” vol. 619, 2002.
31, no. 2, pp. 520–529, 2006.
[35] G. R. Bradski, “Computer Vision Face Tracking For Use in a
[29] B. Lucas and T. Kanade, “An iterative image registration technique Perceptual User Interface,” Intel Technol. J., vol. 2, no. 2, pp. 12–
with an application to stereo vision.,” IJCAI’81 Proceedings of the 21, 1998.
7th international joint conference on Artificial intelligence - Volume
2. pp. 674–679, 1981.
[36] J. G. Allen, R. Y. D. Xu, and J. S. Jin, “Object Tracking Using
CamShift Algorithm and Multiple Quantized Feature Spaces,” vol.
[30] C. Tomasi, “Detection and Tracking of Point Features Technical 36, 2006.
Report CMU-CS-91-132,” Image Rochester NY, vol. 91, no. April,
pp. 1–22, 1991.

View publication stats

Das könnte Ihnen auch gefallen