Laman

Tampilkan postingan dengan label Pengantar Komputasi Modern. Tampilkan semua postingan
Tampilkan postingan dengan label Pengantar Komputasi Modern. Tampilkan semua postingan

Jumat, 29 Mei 2015

Konsep dan Arsitektur Paralel

 A. KONSEP PARALEL

Banyak perkembangan-perkembangan baru dalam arsitektur komputer yang didasarkan pada konsep pemrosesan paralel. Pemrosesan paralel dalam sebuah komputer dapat didefinisikan sebagai pelaksanaan instruksi-instruksi secara bersamaan waktunya. Hal ini dapat menyebabkan pelaksanaan kejadian-kejadian (1) dalam interval waktu yang sama, (2) dalam waktu yang bersamaan atau (3) dalam rentang waktu yang saling tumpang tindih.

Sekalipun didukung oleh teknologi prosesor yang berkembang sangat pesat, komputer sekuensial tetap akan mengalami keterbatasan dalam hal kecepatan pemrosesannya. Hal ini menyebabkan lahirnya konsep keparalelan (parallelism) untuk menangani masalah dan aplikasi yang membutuhkan kecepatan pemrosesan yang sangat tinggi, seperti misalnya prakiraan cuaca, simulasi pada reaksi kimia, perhitungan aerodinamika dan lain-lain.
Konsep keparalelan itu sendiri dapat ditinjau dari aspek design mesin paralel, perkembangan bahasa pemrograman paralel atau dari aspek pembangunan dan analisis algoritma paralel. Algoritma paralel itu sendiri lebih banyak difokuskan kepada algoritma untuk menyelesaikan masalah numerik, karena masalah numerik merupakan salah satu masalah yang memerlukan kecepatan komputasi yang sangat tinggi.

B. ARSITEKTUR PARALEL

Arsitektur paralel komputer menurut Klasifikasi Flynn’s:

1. SISD
Single Instruction – Single Data. Komputer ini memiliki hanya satu prosesor dan satu instruksi yang dieksekusi secara serial. Komputer ini adalah tipe komputer konvensional. Menurut mereka tipe komputer ini tidak ada dalam praktik komputer paralel karena bahkan mainframe pun tidak lagi menggunakan satu prosesor. Klasifikasi ini sekedar untuk melengkapi definisi komputer paralel. Beberapa contoh komputer yang menggunakan model SISD adalah UNIVAC1, IBM 360, CDC 7600, Cray 1 dan PDP 1.


2. SIMD
Single Instruction – Multiple Data. Komputer ini memiliki lebih dari satu prosesor, tetapi hanya mengeksekusi satu instruksi secara paralel pada data yang berbeda pada level lock-step. Komputer vektor adalah salah satu komputer paralel yang menggunakan arsitektur ini. Beberapa contoh komputer yang menggunakan model SIMD adalah ILLIAC IV, MasPar, Cray X-MP, Cray Y-MP, Thingking Machine CM-2 dan Cell Processor (GPU).



3. MISD
Multiple Instructions – Single Data. Teorinya komputer ini memiliki satu prosesor dan mengeksekusi beberapa instruksi secara paralel tetapi praktiknya tidak ada komputer yang dibangun dengan arsitektur ini karena sistemnya tidak mudah dipahami. Sampai saat ini belum ada komputer yang menggunakan model MISD.



4. MIMD
Multiple Instructions – Multiple Data. Komputer ini memiliki lebih dari satu prosesor dan mengeksekusi lebih dari satu instruksi secara paralel. Tipe komputer ini yang paling banyak digunakan untuk membangun komputer paralel, bahkan banyak supercomputer yang menerapkan arsitektur ini. Beberapa komputer yang menggunakan model MIMD adalah IBM POWER5, HP/Compaq AlphaServer, Intel IA32, AMD Opteron, Cray XT3 dan IBM BG/L.



Sistem komputer paralel dibedakan dari cara kerja memorinya menjadi shared memory dan distributed memory. Shared memory berarti memori tunggal diakses oleh satu atau lebih prosesor untuk menjalankan instruksi sedangkan distributed memory berarti setiap prosesor memiliki memori sendiri untuk menjalankan instruksi. Adapun komponen-komponen utama dari arsitektur komputer paralel cluster PC antara lain:
Prosesor (CPU). Bagian paling penting dalam sistem, untuk multicore terdapat lebih dari satu core yang mengakses sebuah memori (shared memory).
Memori. Bagian ini dapat diperinci lagi menjadi beberapa bagian penyusunnya seperti RAM, cache memory dan memori eksternal.
Sistem Operasi. Software dasar untuk menjalankan sistem komputer.
Cluster Middleware. Antarmuka antara hardware dan software.
Programming Environment dan Software Tools. Software yang digunakan untuk pemrograman paralel termasuk software pendukungnya.
User Interface. Software yang menjadi perantara hardware dengan user.
Aplikasi. Software berisi program permasalahan yang akan diselesaikan.

Jaringan. Penghubung satu PC (prosesor) dengan PC yang lain sehingga memungkinkan pemanfaatan sumberdaya secara simultan.

Jumat, 01 Mei 2015

Quantum Computation

Apa itu Quantum Computation ?


Quantum Computation atau dalam bahasa indonesia Komputasi kuantum adalah bidang studi yang berfokus pada pengembangan teknologi komputer berdasarkan prinsip-prinsip teori kuantum, yang menjelaskan sifat dan perilaku energi dan materi pada kuantum (atom dan subatom) tingkat. Pengembangan komputer kuantum, jika praktis, akan menandai lompatan maju dalam kemampuan komputasi yang jauh lebih besar daripada yang dari sempoa untuk superkomputer modern, dengan keuntungan kinerja di bidang miliar kali lipat dan seterusnya. Komputer kuantum, mengikuti hukum fisika kuantum, akan mendapatkan kekuatan pemrosesan yang sangat besar melalui kemampuan untuk berada di beberapa negara, dan untuk melakukan tugas-tugas menggunakan semua permutasi yang mungkin secara bersamaan. Pusat saat ini penelitian di komputasi kuantum termasuk MIT, IBM, Oxford University, dan Los Alamos National Laboratory.

Quantum Enlargement


Quantum entanglement adalah efek mekanik kuantum yang mengaburkan jarak antara partikel individual sehingga sulit menggambarkan partikel tersebut terpisah meski Anda berusaha memindahkan mereka.

Quantum entanglement terjadi ketika partikel seperti foton, elektron, molekul besar seperti buckyballs, dan bahkan berlian kecil berinteraksi secara fisik dan kemudian terpisahkan; jenis interaksi adalah sedemikian rupa sehingga setiap anggota yang dihasilkan dari pasangan benar dijelaskan oleh kuantum mekanik deskripsi yang sama (keadaan yang sama), yang terbatas dalam hal faktor penting seperti posisi, momentum, perputaran, polarisasi,

Pengoprasian data qubit


Dalam komputasi kuantum, sebuah qubit (/ kjuːbɪt /) atau kuantum bit adalah unit informasi-analog kuantum kuantum bit klasik. Sebuah qubit adalah sistem kuantum mekanik dua-keadaan, seperti polarisasi foton tunggal: di sini dua keadaan yang polarisasi vertikal dan polarisasi horizontal. Dalam sistem klasik, sedikit harus berada dalam satu keadaan atau yang lain. Namun mekanika kuantum memungkinkan qubit berada dalam superposisi dari kedua negara pada saat yang sama, properti yang mendasar untuk komputasi kuantum.
Untuk memanipulasi sebuah qubit, maka menggunakan Quantum Gates (Gerbang Kuantum). Cara kerjanya yaitu sebuah gerbang kuantum bekerja mirip dengan gerbang logika klasik. Gerbang logika klasik mengambil bit sebagai input, mengevaluasi dan memproses input dan menghasilkan bit baru sebagai output.

Quantum Gates

Quantum Gates / Gerbang Quantum merupakan sebuah aturan logika / gerbang logika yang berlaku pada quantum computing. Prinsip kerja dari quantum gates hampir sama dengan gerbang logika pada komputer digital. Jika pada komputer digital terdapat beberapa operasi logika seperti AND, OR, NOT, pada quantum computing gerbang quantum terdiri dari beberapa bilangan qubits, sehingga quantum gates lebih susah untuk dihitung daripada gerang logika pada komputer digital.

Algoritma Shor

Algoritma Shor, dinamai matematikawan Peter Shor , adalah algoritma kuantum yaitu merupakan suatu algoritma yang berjalan pada komputer kuantum yang berguna untuk faktorisasi bilangan bulat. Algoritma Shor dirumuskan pada tahun 1994.  Inti dari algoritma ini merupakan bagaimana cara menyelesaikan faktorisasi terhaadap bilanga interger atau bulat yang besar.

Efisiensi algoritma Shor adalah karena efisiensi kuantum Transformasi Fourier , dan modular eksponensial. Jika sebuah komputer kuantum dengan jumlah yang memadai qubit dapat beroperasi tanpa mengalah kebisingan dan fenomena interferensi kuantum lainnya, algoritma Shor dapat digunakan untuk memecahkan kriptografi kunci publik skema seperti banyak digunakan skema RSA. Algoritma Shor terdiri dari dua bagian:

- Penurunan yang bisa dilakukan pada komputer klasik, dari masalah anjak untuk masalah ketertiban -temuan.

- Sebuah algoritma kuantum untuk memecahkan masalah order-temuan.

Hambatan runtime dari algoritma Shor adalah kuantum eksponensial modular yang jauh lebih lambat dibandingkan dengan kuantum Transformasi Fourier dan pre-/post-processing klasik. Ada beberapa pendekatan untuk membangun dan mengoptimalkan sirkuit untuk eksponensial modular. Yang paling sederhana dan saat ini yaitu pendekatan paling praktis adalah dengan menggunakan meniru sirkuit aritmatika konvensional dengan gerbang reversibel , dimulai dengan penambah ripple-carry. Sirkuit Reversible biasanya menggunakan nilai pada urutan n ^ 3, gerbang untuk n qubit. Teknik alternatif asimtotik meningkatkan jumlah gerbang dengan menggunakan kuantum transformasi Fourier , tetapi tidak kompetitif dengan kurang dari 600 qubit karena konstanta tinggi.



Referensi :
http://whatis.techtarget.com/definition/quantum-computing
http://mojomakearocket.blogspot.com/2015_04_16_archive.html
http://seto.citravision.com/berita-45-pengantar-quantum-computation--algoritma-shor.html
http://zumzeros.blogspot.com/2015/04/quantum-computation.html

Jumat, 13 Maret 2015

Cloud Computing dan Sejarahnya

CLOUD COMPUTING

Cloud Computing adalah gabungan pemanfaatan teknologi komputer ('komputasi') dan pengembangan berbasis Internet ('awan'). Awan (cloud) adalah metafora dari internet sebagaimana awan yang sering digambarkan di diagram jaringan komputer. Cloud computingmelibatkan menyebarkan kelompok server remote dan jaringan lunak yang memungkinkan penyimpanan data terpusat dan akses online untuk layanan komputer atau sumber daya . Awan dapat diklasifikasikan sebagai publik, swasta atau hybrid.


SEJARAH CLOUD COMPUTING
             Pada tahun 50-an, Cloud Computing memiliki konsep yang mendasar. Ketika komputer mainframe yang tersedia dalam skala yang besar dalam dunia pendidikan dan perusahaan dapat diakses melalui komputer terminal disebut dengan Terminal Statis. Terminal tersebut hanya dapat digunakan untuk melakukan komunikasi tetapi tidak memiliki kapasitas pemrosesan internal. Agar penggunaan mainframe yang relatif mahal menjadi efisien maka mengembangkan akses fisik komputer dari pembagian kinerja CPU. Hal ini dapat menghilangkan periode tidak aktif pada mainframae, memungkinkan untuk kembali pada investasi. Hinga pertengahan tahun 70-an dikenal dengan RJE remote proses Entry Home Job yang berkaitan besar dengan IBM dan DEC Mainframe.
            Tahun 60-an, John McCarthy berpendapat bahwa “Perhitungan suatu hari nanti dapat diatur sebagai utilitas publik.” Di buku Douglas Parkhill, The Challenge of the Computer Utility menunjukkan perbandingan idustri listrik dan penggunaan pada listrik di masyarakat umum dan pemerintahan dalam penyediaan cloud computing. Ketika Ilmuan Herb Grosch mendalilkan bahwa seluruh dunia akan beroperasi pada terminal bodah didukung oleh sekitar 15 pusat data yang besar. Karena komputer ini sangat canggih, banyak perusahaan dan entitas lain menyediakan sendiri kemampuan komputasi melalui berbagai waktu danbeberapa organisasi, seperti GE GEISCO, Anak perusahaan IBM Biro Corporation, Tymshare, CSS Nasional, Data Dial, Bolt, dan Beranek and Newman.
            Tahun 90-an, perusahaan telekomunikasi mulai menawarkan VPN layanan jaringan pribadi dengan kualitas sebanding pelayanannya, tapi dengan biaya yang lebih rendah. Karena merasa cocok dengan hal tersebut untuk menyeimbangkan penggunaan server, mereka dapat menggunakan bandwidth jaringan secara keseluruhan. Lalu menggunakan simbol awan sebagai penunjuk titik demarkasi antara penyedia dan pengguna yang saling bertanggung jawab. Cloud computing memperluas batas iniuntuk menutup server serta infrastruktur jaringan.
            Sejak Tahun 2000, Amazon sebagai peran penting dalam semua pengembangan cloud computing dengan memodernisasi pusat data, seperti jaringan komputer yang menggunakan sesedikit 10% dari kapasitas mereka pada satu waktu. Setelah menemukan asitektur awan baru, mengalami peningkatan efisiensi internal sedikit bergerak capat “Tim Dua-Pizza”(Tim kecil untuk memberi makan dengan dua pizza) dapat menambahkan fitur baru dengan cepat dan lebih mudah. Kemudian Amazon mulai mengembangkan produk baru sebagai penyedia cloud computing untuk pelanggan eksternalm dan meluncurkan Amzaon Web Service (AWS) tahun 2006.
            Awal tahun 2008, Eucalypus menjadi yang pertama open source, AWS API Platform yang kompatibel menyebarkan awan swasta. Open Nebula ditingkatkan dalam proyek Eropa Reservoir Komisi yang sudah didanai. Pada tahun yang sama, agar difokuskan pada penyediaan jaminan kualitas layanan (seperti yang dipersyaratkan oleh aplikasi interaktif real-time) untuk infrastruktur berbasis cloud dalam rangka IRMOS Eropa Proyek yang didanai Komisi. Pertengahan 2008, Gartner melihat kesempatan untuk membentuk hubungan antara konsumen layanan TI, mereka menggunakan layanan TI dan menjualnya. Dan mengamati bahwa “Organisasi layanan TI yang beralih dari perangkat keras milik perusahaan dan aset perangkat lunak untuk digunakan layanan berbasis model sehingga pergeseran diproyeksikan untuk komputasi.....akan menghasilkan pertumbuhan dramatis dalam produk IT di beberapadaerahdan pengurangan yang signifikan di daerah lain.”.
            Tanggal 1 Maret 2011,IBM mengumumkan SmartCloud kerangka IBM Smarter Planet untuk mendukung. Di antara berbagai komponen dasar Smarter Computing, cloud computing adalah bagian yang paling penting.
 

Materi Referensi :