xml-stylesheet type=“text/xsl” href=“configuration.xsl”?>
property>
property>
configuration>Setting pada hdfs-site.xmlxml version=“1.0??>
xml-stylesheet type=“text/xsl” href=“configuration.xsl”?>
property>
property>
property>
property>
configuration>Setting pada mapred-site.xmlxml version=“1.0??>
xml-stylesheet type=“text/xsl” href=“configuration.xsl”?>
property>
property>
property>
property>
property>
property>
configuration>
2. Konfigurasi SSHPada mode psudo-distributed, Hadoop akan menjalankan beberapa daemons. Oleh karena itu SSH harus diinstal dan di-setting agar Hadoop bisa masuk dengan SSH ke localhost tanpa harus memasukkan password.Pertama, cek apakah SSH sudah terinstal atau belum dengan command berikut:%sudo apt-get install sshKemudian ijinkan login SSH ke localhost tanpa menggunakan password:%ssh-keygen -t rsa -P ” -f ~/.ssh/id_rsa%cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keysTest setting dengan command berikut:%ssh localhostJika sukses, maka anda akan bisa login dengan SSH tanpa menggunakan password.3. Format HDFSSeperti halnya hardisk pada PC yang sebelum digunakan harus diformat dulu dengan filesystem yang akan digunakan (FAT32, NTFS dsb), HDFS pun demikian. Sebelum Hadoop bisa digunakan, HDFS harus diformat dulu. Buka directory hadoop-0.20.2 dan dari directory ini execute command berikut untuk men-format HDFS:%bin/hadoop namenode -formatSetelah diformat, Hadoop sudah siap dijalankan dengan men-start daemons HDFS dan MapReduce dengan command berikut:%bin/start-dfs.sh%bin/start-mapred.shSetelah Hadoop di-start, kita bisa memastikan apakah daemons Hadoop tersebut sudah berjalan atau tidak dengan menggunakan browser internet (Internet Explorer, Firefox, Google Chrome dsb). Masukkan URL berikut ke address bar browser yang digunakan.http://localhost:50030/ –url jobtrackerhttp://localhost:50070/ –url namenodeUntuk menghentikan daemons Hadoop, gunakan command berikut:%bin/stop-mapred.sh%bin/stop-dfs.shBila langkah-langkah diatas berjalan normal, brarti instal Hadoop mode pseudo-distributed telah sukses dan Hadoop telah siap menjalankan aplikasi MapReduce. Berikutnya kita akan mencoba menjalankan contoh aplikasi MapReduce yang dinamai WordCount, sama seperti aplikasi yang dijalankan pada Hadoop mode standalone pada artikel sebelumnya (Menjalankan Aplikasi MapReduce dengan Eclipse Java SE). Silakan download / copy source code aplikasi WordCount.java dari artikel tersebut.4. Menjalankan aplikasi WordCountUntuk menjalankan contoh aplikasi WordCount, silakan ikuti langkah-langkah sbb:a. Buat directory baru pada home directory dan beri nama wordcount (atau nama yang sesuai selera masing2). Buat file baru dengan nama WordCount.java dan paste source code WordCount.java pada artikel Menjalankan Aplikasi MapReduce dengan Eclipse java SE.b. Compile program WordCount.java dengan command berikut (saya asumsikan kita berada di directory hadoop-0.20.2):javac -classpath hadoop-0.20.2-core.jar:lib/commons-cli-1.2.jar /home/wordcount/WordCount.javaBila compile sukses, maka akan dihasilkan tiga class file : WordCount.classWordCount$TokenizerMapper.classWordCount$IntSumReducer.classBuat directory baru dengan nama classes, dan pindahkan ketiga class file tsb ke dalam directory classes.c. Buat WordCount.jar dengan mengeksekusi command berikut dari directory wordcount:jar -cvf WordCount.jar -C classes/ .Bila sukses, maka akan dihasilkan file WordCount.jard. Buat directory input pada HDFS dengan command berikut (saya asumsikan kita berada di directory hadoop-0.20.2)bin/hadoop dfs -mkdir /user/inputbin/hadoop dfs -ls /usere. Copy text file yang akan diproses dengan menggunakan aplikasi WordCount ke directory input pada HDFS dengan command berikut:bin/hadoop dfs -copyFromLocal /home/contoh.txt /user/inputbin/hadoop dfs -ls /user/inputf. Setelah itu kita jalankan program WordCount dengan command berikut:bin/hadoop jar /home/wordcount/WordCount.jar WordCount /user/input /user/outputbila sukses akan muncul text berikut pada console:13/01/28 10:58:09 INFO input.FileInputFormat: Total input paths to process : 113/01/28 10:58:09 INFO mapred.JobClient: Running job: job_201301150937_000213/01/28 10:58:10 INFO mapred.JobClient: map 0% reduce 0%13/01/28 10:58:17 INFO mapred.JobClient: map 100% reduce 0%13/01/28 10:58:29 INFO mapred.JobClient: map 100% reduce 100%13/01/28 10:58:31 INFO mapred.JobClient: Job complete: job_201301150937_000213/01/28 10:58:31 INFO mapred.JobClient: Counters: 1713/01/28 10:58:31 INFO mapred.JobClient: Job Counters13/01/28 10:58:31 INFO mapred.JobClient: Launched reduce tasks=113/01/28 10:58:31 INFO mapred.JobClient: Rack-local map tasks=113/01/28 10:58:31 INFO mapred.JobClient: Launched map tasks=113/01/28 10:58:31 INFO mapred.JobClient: FileSystemCounters13/01/28 10:58:31 INFO mapred.JobClient: FILE_BYTES_READ=2710513/01/28 10:58:31 INFO mapred.JobClient: HDFS_BYTES_READ=1909913/01/28 10:58:31 INFO mapred.JobClient: FILE_BYTES_WRITTEN=5424213/01/28 10:58:31 INFO mapred.JobClient: HDFS_BYTES_WRITTEN=2069913/01/28 10:58:31 INFO mapred.JobClient: Map-Reduce Framework13/01/28 10:58:31 INFO mapred.JobClient: Reduce input groups=160013/01/28 10:58:31 INFO mapred.JobClient: Combine output records=160013/01/28 10:58:31 INFO mapred.JobClient: Map input records=160013/01/28 10:58:31 INFO mapred.JobClient: Reduce shuffle bytes=013/01/28 10:58:31 INFO mapred.JobClient: Reduce output records=160013/01/28 10:58:31 INFO mapred.JobClient: Spilled Records=320013/01/28 10:58:31 INFO mapred.JobClient: Map output bytes=2389913/01/28 10:58:31 INFO mapred.JobClient: Combine input records=160013/01/28 10:58:31 INFO mapred.JobClient: Map output records=160013/01/28 10:58:31 INFO mapred.JobClient: Reduce input records=1600g. Buka directory /uer/output pada HDFS dan cek hasilnya:bin/hadoop dfs -ls /user/outputbin/hadoop dfs -cat /user/output/part-r-00000Hasil eksekusi aplikasi WordCount juga dapat dilihat menggunakan Web Browser di http://localhost:50070/Demikian langkah-langkah instal Hadoop mode pseudo-distributed di Linux beserta cara menjalankan contoh aplikasi MapReduce. Selamat mencoba!.Referensi:http://vijjam.blogspot.jp/2013/01/menjalankan-hadoop-mapreduce-mode.html
Tidak ada komentar:
Posting Komentar