Hei…

Blog ini secara umum berisikan pengetahuan saya yang sedikit ini tentang beberapa bagian dari sistem telekomunikasi terutama berkenaan dengan pemrosesan sinyal, teori informasi (information theory) dan teori coding (coding theory). Model dari sistem telekomunikasi secara umum dapat digambarkan dengan diagram sebagai berikut

Model Sistem KomunikasiInformasi dari sumber (source) pertama kali diproses oleh source encoder untuk mendapatkan data yang lebih kompak. Source codeword dari hasil kompresi ini berupa urutan simbol yang umumnya berupa bilangan biner (binary). Kemudian simbol-simbol tersebut ditransformasi oleh encoder ke simbol-simbol yang disebut dengan (channel) codeword guna memperkuat ketahanan data dari segala distorsi dan interferensi di kanal (channel) serta noise yang tidak bisa dielakkan. Selanjutnya setiap simbol atau beberapa simbol dari codeword dipetakan kedalam suatu simbol analog oleh modulator untuk kemudian dikirimkan ke penerima (receiver). Receiver melakukan inverse dari pemrosesan di transmitter; dalam hal ini dilakukan oleh demodulator dan decoder. Beberapa modul turunan dari blok di atas (dan akan segera ditulis), diantaranya:

Sebagai catatan, Shannon pertama kali memetakan dasar dari permasalahan komunikasi secara matematis pada tahun 1948, dalam paper legendarisnya yang berjudul A Mathematical Theory of Communication. Di dalam paper ini, Shannon menyederhanakan permasalahan dari sistem komunikasi menjadi : Information Source –> Transmitter –> (channel)+noise –> Receiver –> Destination. Teori Informasi yang lahir dari paper ini berhasil menunjukkan limit dari sistem komunikasi.

Tools yang biasa saya gunakan untuk memudahkan pembelajaran adalah berupa software MATLAB. Namun tidak menutup kemungkinan untuk menggunakan software pendukung lainnya, seperti: GNU octave, C, ataupun C++.

Beberapa artikel tidak berhubungan dengan topik ini namun menarik untuk mengisi waktu luang :)

Silahkan segera koreksi tulisan saya jika ada kesalahan di sana sini, dengan cara menuliskannya di bagian komentar  dari artikel tersebut ;).
Mohon maaf jika komentar tidak segera saya tanggapi karena kemungkinan adanya kesibukan :p

Salam,

Ade

A Priori, A Posteriori, Extrinsic LLR

Log-likelihood Ratio (LLR) adalah representasi perbandingan antara 2 kemungkinan nilai, dalam bentuk logarithm. Misalkan perbandingan antara suatu sinyal BPSK u_k apakah bernilai +1 atau -1, maka LLR dari u_k adalah

L(u_k) = \ln(\frac{p(u_k = +1)}{p(u_k = -1)}).

Representasi nilai logarithm ini memudahkan kita mengukur seberapa jauh/dekat suatu sinyal terhadap nilai +1 atau -1. Hal ini bisa dilihat dari polaritas nilai LLR. Sedangkan besarnya amplitude dari LLR menunjukkan probabilitas ketepatan nilai tersebut.

Image

Gambar di atas adalah penyederhanaan dari sistem komunikasi untuk mempermudah kita dalam analisis. Pada transmitter, informasi u di-encode oleh C, di-mapping BPSK sehingga menghasilkan sinyal x, kemudian ditransmit. Pada receiver, sinyal yang diterima, y, di-soft decoding oleh D menghasilkan \hat{u}. Hasil akhirnya adalah proses hard decoding dari \hat{u}. Dengan menggunakan Bayes’ Theorem : Continue reading

Viterbi Algorithm

Slide berikut saya buat untuk office hour mata kuliah coding theory, term 2-1, di JAIST. Profesor Tad Matsumoto memberikan tugas: “decode the received signal with Viterbi Algorithm“. Ada 2 teknik decoding, yaitu dengan hard-decision decoding dan soft-decision decoding. Oleh karena Prof. tidak memberikan informasi mengenai binary source yang dikirim, maka tidak dapat dipastikan seberapa banyak error atau tidaknya data sinyal yang di-decode.

Huffman Coding

Huffman Coding adalah jenis source coding yang paling efisien. Berikut adalah algoritma sederhana dari Huffman Coding:

  1. alokasikan dua sumber informasi yang memiliki peluang kemunculan terkecil ke codeword terpanjang yang perbedaan keduanya terletak di simbol terakhir,
  2. tambahkan peluang kemunculan dua sumber di  (1) sehingga menjadi satu sumber informasi yang baru, lalu lakukan hal sama pada no. (1) ke semua sumber informasi yang ada

Berikut adalah contoh Huffman Coding dari contoh pada artikel encoding (part1: noiseless coding): Continue reading

Encoding (part 2: noisy coding)

Bayangkan dalam satu kali SMS yang dibatasi oleh 160 karakter kita bisa mengirimkan informasi yang banyak dengan menggunakan beberapa kata yang disingkat yang masih bisa dimengerti oleh si penerima SMS. Tulisan saya sebelumnya mengenai noiseless coding telah menunjukkan bahwa hal itu bisa dilakukan. Noiseless Coding Theorem mengajarkan kita bahwa sumber informasi bisa dikodekan sedemikian efisien sehingga panjang codeword rata-rata menjadi kecil, hingga mendekati atau sama dengan nilai entropy dari informasi tersebut.  Namun teori ini tidak memperhitungkan adanya error* dalam transmisi SMS dari pengirim ke penerima.

Error dalam transmisi data bisa terjadi karena berbagai sumber, seperti: ketidaksempurnaan hardware, random noise, interferensi, efek channel fading, dan lain sebagainya. Ada beberapa skema yang bisa kita lakukan untuk mengatasi error yang tidak bisa dielakkan tersebut: Continue reading

Encoding (part 1: noiseless coding)

.: Tulisan ini bertujuan untuk menjelaskan dasar dari teknik pengkodean (selanjutnya disebut encoding) :.

Encoding tidak terlepas dari permasalahan saat transfer data dari suatu lokasi ke lokasi lain atau saat pengambilan data yang disimpan (data storage). Fokus dari permasalahan adalah pada pengemasan informasi dan deteksi serta koreksi error data. Dari permasalahan tersebut, encoding dapat dikategorikan ke dalam dua jenis: noiseless coding dan noissy coding.

Noiseless Coding
Teknik ini biasa juga disebut source coding atau teknik kompresi atau encoding for efficiency. Noiseless coding bertujuan untuk mengkodekan sumber informasi sedemikian rupa sehingga total informasi pada message yang di encode sedekat mungkin dengan besarnya entropy dari message aslinya. Shannon pertama kali meletakkan dasar dari Noiseless Coding Theorem secara matematis dengan pertidaksamaan sebagai berikut Continue reading

Informasi

Definisi informasi, secara teknis, pertama kali diperkenalkan oleh Ralph Hartley pada tahun 1928 dengan papernya yang berjudul Transmission of Information. Definisi tersebut bertujuan untuk menghilangkan faktor psikologi dan variasinya, sehingga menjadikan informasi adalah suatu entitas yang terukur. Banyaknya informasi, menurut Hartley, adalah sebanding dengan jumlah simbol sekunder dari suatu sumber simbol primer yang tiap simbol(primer)nya memiliki peluang kemunculan/transmisi yang sama. Informasi ini dirumuskan oleh persamaan sebagai berikut:

H = n\,log_{b}\,S,

dimana b adalah basis dari fungsi log, S  adalah jumlah simbol primer, dan n adalah jumlah simbol sekunder. Sebagai contoh: transmisi dijital dari sumber yang menghasilkan bilangan biner memiliki nilai S = 2. Apabila receiver menerima message yang terbentuk dari 1 simbol primer (kita sebut message ini adalah simbol sekunder, misal: 0 atau 1) maka besarnya informasi: H = log_{2}\,2 = 1 bit. Apabila receiver menerima message yang terbentuk dari 2 simbol primer (ada 4 kemungkinan simbol sekunder: 00, 01, 10, 11), maka H= 2\,log_{2}\,2 = 2 bit.

20 tahun kemudian, Continue reading