web crawling adalah salah satu bentuk aksi hacking dengan meng-copy halaman website ke dalam komputer lokal.

Dengan memindahkan isi sebuah website ke dalam komputer lokal, kita bisa menelusuri isi website tersebut tanpa harus terhubung ke internet.

Tujuannya adalah untuk mempermudah analisis srtuktur sebuah website secara offline.

Namun, perlu Anda ketahui, bahwa tidak semua isi website bisa dipindahkan kedalam komputer lokal.

Salah satunya adalah website yang terbuat dari flash tidak bisa di pindahkan secara sempurna karena link yang terdapat di dalamnya tidak tersimpan dalam file HTML maupun script PHP.

Cara kerja web crawling

Membajak seluruh isi web sehingga bisa dibaca secara offline atau untuk mempelajari struktur sebuah website.

Terkadang, web crawling ini dikenal juga sebagai spidering.

Untuk melakukan aksi web crawling ini, kita memerlukan sebuah program bernama HTTrack.

Berikut langkah menggunakan program HTTrack ini:

1. Jalankan program HTTack, dari tampilan pertama klik tombol Next.

2. Selanjutnya isikan nama proyek yang Anda lakukan, di sini saya memasukkan kata “belajar” lalu klik tombol Next.

Apabila diinginkan, Anda bisa mengganti base path atau lokasi penyimpanan file download.

3. Masukkan nama website yang akan Anda download pada bagian Web Address fURLI.

Web crawling

4. Untuk pengaturan parameter koneksi, biarkan saja seperti default. Klik Finish, proses download pun segera dilakukan.

Web crawling

5. Tunggu proses download dilakukan sampai selesai.

Web crawling

Web crawling

6. Setelah selesai, klik tombol Browse Mirrored website untuk membuka web yang Anda download tadi secara offline.

Web crawling

Web crawling

Mungkin ada yang bertanya, terus apa manfaat dari mempelajari struktur sebuah website.

Untuk mempermudah penjelasan, akan saya sertakan contohnya sekaligus.

Kesimpulan:

Dengan mengetahui struktur sebuah website, Anda bisa langsung mengakses direktori sebuah website tanpa harus menjadi seorang administrator terlebih dahulu,

ARTIKEL LAINYA:  Teknik kamuflase

sebab, data baik berupa dokumen, gambar, dan sebagainya berada dalam direktori sebuah website.

Bayangkan, apabila terdapat data rahasia yang tidak seharusnya diakses oleh umum.

Tentu saja hal ini sangat berbahaya.

Salah satu contohnya, setelah mempelajari struktur sebuah website yang dibangun menggunakan wordpress.

direktorinya bisa dilihat pada:

http//www.nama-target.com/wp content/uploads.

Sekarang kita akan menggunakan sebuah program bernama IntelliTamper

Cara penggunaan program ini pun cukup mudah, Anda hanya perlu memasukkan nama website target dan mengklik Enter atau menekan ikon Start Scan.

Saya melakukan scan terhadap sebuah website, di sana saya bisa menemukan beberapa direktori rahasia.

Setelah proses selesai Anda bisa mengakses direktori menggunakan Windows Explorer Bahkan, pada beberapa kasus. Anda bisa menemukan database yang mungkin disimpan dalam direktori khusus.

selain cara di atas, ada sebuah trik sederhana bagaimana Anda bisa mengetahui direktori apa saja yang terdapat dalam sebuah website.

siapa tahu ada sebuah direktori rahasia yang tidak di data oleh Google.

untuk melakukan hal ini, Anda hanya perlu memasukkan robots.bxt di belakang nama sebuah website.

Contoh: httpe//wwwvyctoria.com/robots.bt.

Berikut hasil yang ditampilkan Disallava /administrator/:

1. Disallava /ceche/
2. Disallava /componenta/
3. Disallava /AmageR/
4. Disallava /inal uuden/
5. Disallava /libraries/
6. Disallava /nedia/
7. Disallava /module/
8. Disallava /plugins/
9. Disallava /templates/
10. Disallava /tap/
11. Disallava /amlarpc/

uzie......borot

Saya ini blogger paruh waktu asal Cilacap. Pekerjaan utama saya saat ini hanyalah tukang pijit di salah satu mall di Bogor.

uzie......borot

Saya ini blogger paruh waktu asal Cilacap. Pekerjaan utama saya saat ini hanyalah tukang pijit di salah satu mall di Bogor.

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *