Dalam analisis web kita akan
membahas tentang pengukuran web yang akan membahas tools-tools apa saja yang
digunakan untuk mengukur analisis web dan bagaimana menganalisis web itu
sendiri.
1. Tools-tools pengukur analisis web :
a. SEO (Search Engine Optimization) adalah mengoptimalkan sebuah blog/web dengan memanfaatkan mesin pencari dan mendapatkan peringkat yang tinggi di halaman pertama mesin pencari dengan menggunakan keyword agar dibanjiri pengunjung yang datang dari search engine.
b. GTmetrix merupakan sebuah situs dimana kita dapat mengetahui berbagai hal yang membuat blog/web kita lambat dan performa blog/web ketika akses, tersedia secara gratis dengan mengunakan yahoo Yslow dan Google page speed sebagai mesin penganalisa dan menampilkan hasil juga rekomendasi yang harus dilakukan.
Kelebihan dari GTmetrix :
1. dapat membandingkan beberapa URL secara bersamaan.
2. dapt menjadwalkan pengecekan web/blog secara otomatis dan dapat menyimpan laporan.
kekurangan dari GTmetrix :
dalam penggunaan GTmetrix harus menggunakan koneksi internet yang cepat.
c. Keynote Internet Testing Environment (KITE)
alat pengujian dan pengukur berbasis desktop yang digunakan untuk merekam atau mengedittransaksi web dan menganalis kinerja dari aplikasi web. KITE sangat mudah untuk digunakan dan sebagai salah satu alat yang sudah cukup terkenal didunia.
d. CloudStatus
CloudStatus adalah alat pengukur web yang berfungsi menelusuri kinerja utama
1. Tools-tools pengukur analisis web :
a. SEO (Search Engine Optimization) adalah mengoptimalkan sebuah blog/web dengan memanfaatkan mesin pencari dan mendapatkan peringkat yang tinggi di halaman pertama mesin pencari dengan menggunakan keyword agar dibanjiri pengunjung yang datang dari search engine.
b. GTmetrix merupakan sebuah situs dimana kita dapat mengetahui berbagai hal yang membuat blog/web kita lambat dan performa blog/web ketika akses, tersedia secara gratis dengan mengunakan yahoo Yslow dan Google page speed sebagai mesin penganalisa dan menampilkan hasil juga rekomendasi yang harus dilakukan.
Kelebihan dari GTmetrix :
1. dapat membandingkan beberapa URL secara bersamaan.
2. dapt menjadwalkan pengecekan web/blog secara otomatis dan dapat menyimpan laporan.
kekurangan dari GTmetrix :
dalam penggunaan GTmetrix harus menggunakan koneksi internet yang cepat.
c. Keynote Internet Testing Environment (KITE)
alat pengujian dan pengukur berbasis desktop yang digunakan untuk merekam atau mengedittransaksi web dan menganalis kinerja dari aplikasi web. KITE sangat mudah untuk digunakan dan sebagai salah satu alat yang sudah cukup terkenal didunia.
d. CloudStatus
CloudStatus adalah alat pengukur web yang berfungsi menelusuri kinerja utama
dari layanan-layanan cloud
computing. CloudStatus terdiri dari 5 layanan dasar yang
ditawarkan oleh amazon, dan memiliki
kemampuan monitoring yang lebih baik.
e. Jiffy
jiffy tersedia secara bebas(open
source).
Cara kerja jiffy adalah dengan
memasukan kode jiffy ke dalam halamanhalaman web yang akan di telusuri. Dengan
jiffy kita dapat mengukur page rendering
times, melaporkan hasil pengukuran
dari web server, aggregate log into database, dan
membuat laporan-laporan.
Pembasan berikutnya tentang bagaimana sebuah web perlu dianalisis , yaitu :
1. membantu mengetahui nilai yang akan didapat dari suatu web maupun blog
2. membantu memantau beberapa lama pengunjung yang membuka situs web tersebut
3. membantu mengoptimalkan situs web dalam hal penampilan dan menambah informasi.
CRAWLER
DEFINISI :
proses pengambilan sejumlah besar halaman web dengan cepat kedalam satu tempat penyimpanan lokal dan mengindexnya berdasarkan sejumlah kata kunci. yakni sebuah komponen utama dalam sebuah Search Engine (Mesin Pencari), sebagai Aplikasi Information Retrieval Modern
CARA KERJA :
suatu data dikumpulkan oleh web crawler kemudian digunakan oleh mesin pencari untuk memberikan link situs yang relavan bagi pengguna ketika mereka melakukan pencarian. web crawler menangkap banyak hal yang berbeda ketika mereka memindai situs. Informasi diperoleh dari metatag, konten itu sendiri dan link. untuk mendapatkan ide yang baik dari apa situs adalah tentang. Crawler digunakan sebagai scan situs anda. jika ada bagian-bagian tertentu dari situs yang seharusnya tidak diindeks, mereka harus mencatat dalam file ini. setelah mendapat instruksi crawler dari file ini, akan mulai dengan merangkak halaman situs anda.
Ini kemudian akan melanjutkan ke indeks konten, dan kemudian akhirnya akan mengunjungi link di situs Anda. Jika crawler mengikuti link dan tidak menemukan halaman, maka akan dihapus dari indeks. Informasi yang dikumpulkan dari situs Anda kemudian disimpan dalam database, yang kemudian digunakan oleh mesin pencari.
BEBERAPA CONTOH WEB CRAWLER :
1.Teleport Pro
Salah satu software web
crawler untuk keperluan offline browsing. Software ini sudah cukup lama
popular, terutama pada saat koneksi internet tidak semudah dan secepat
sekarang. Software ini berbayar dan beralamatkan di http://www.tenmax.com.
2.HTTrack
Ditulis dengan menggunakan C,
seperti juga Teleport Pro, HTTrack merupakan software yang dapat mendownload
konten website menjadi sebuah mirror pada harddisk anda, agar dapat
dilihat secara offline. Yang menarik software ini free dan dapat di download
pada website resminya di http://www.httrack.com
3.Googlebot
Merupakan web
crawler untuk membangun index pencarian yang digunakan oleh search engine Google.
Kalau website anda ditemukan orang melalui Google, bisa jadi itu merupakan jasa
dari Googlebot. Walau konsekuensinya, sebagian bandwidth anda akan tersita
karena proses crawling ini.
4.Yahoo!Slurp
Kalau Googlebot adalah web crawler
andalan Google, maka search engine Yahoo mengandalkan Yahoo!Slurp. Teknologinya
dikembangkan oleh Inktomi Corporation yang diakuisisi oleh Yahoo!.
5.YaCy
Sedikit berbeda dengan web
crawler lainnya di atas, YaCy dibangun atas prinsip jaringan P2P
(peer-to-peer), di develop dengan menggunakan java, dan didistribusikan
pada beberapa ratus mesin computer (disebut YaCy peers).
Tiap-tiap peer di share dengan prinsip P2P untuk
berbagi index, sehingga tidak memerlukan server central. Contoh search engine
yang menggunakan YaCy ialah Sciencenet, untuk pencarian dokumen di bidang sains.
SEARCH ENGINE
DEFINISI :
adalah program komputer yang dirancang untuk melakukan pencarian atas berkas-berkas yang tersimpan dalam layanan www, ftp, publikasi milis, ataupun news group dalam sebuah ataupun sejumlah komputer peladen dalam suatu jaringan. Search engine merupakan perangkat pencari informasi dari dokumen-dokumen yang tersedia. Hasil pencarian umumnya ditampilkan dalam bentuk daftar yang seringkali diurutkan menurut tingkat akurasi ataupun rasio pengunjung atas suatu berkas yang disebut sebagai hits. Informasi yang menjadi target pencarian bisa terdapat dalam berbagai macam jenis berkas seperti halaman situs web, gambar, ataupun jenis-jenis berkas lainnya. Beberapa mesin pencari juga diketahui melakukan pengumpulan informasi atas data yang tersimpan dalam suatu basisdata ataupun direktori web.
Sebagian besar mesin pencari dijalankan oleh perusahaan swasta yang menggunakan algoritma kepemilikan dan basisdata tertutup, di antaranya yang paling populer adalah Google (MSN Search dan Yahoo!). Telah ada beberapa upaya menciptakan mesin pencari dengan sumber terbuka (open source), contohnya adalah Htdig, Nutch, Egothor dan OpenFTS
CONTOH-CONTOH SE :
1. GOOGLE
google muncul pada akhir tahun 1997, dimana google memasuki pasar yang telah diisi oleh para pesaing lain dalam penyediaan layanan mesin pencari, seperti Yahoo, Altavista , HotBot, Excite, InfoSeek dan Lycos. dimana perusahaan-perusahaan tersebut mengklaim sebagain perusahaan tabg bergerak dalam bidang layanan pencarian internert. Hingga akhirnya Google mampu menjadi sebagai penyedia mesin pencari yang cukup diperhitungkan didunia.
2. Yahoo
Yahoo raja directori di internet disamping para pengguna internet melihat DMOZ serta LookSma berusaha menurunkan nya diposisi puncak tersebut. akhir-akhir ini telah tumbuh secara cepat dalam ukurannya mereka pun sudah memliki harga sehingga mudah untuk memasukinya, dengan demikian mendapatkan sebuah daftar pada direktori yahoo memang memiliki nilai yang tinggi.
PERBEDAAN SEARCH ENGINE
1. Yahoo! dan bing : On page keyword merupakan faktor yang paling penting .
2. Google : linklah yang merupakan faktor yang sangat penting. halaman website google seperti wine semakin tua umurnya semakin bagus peringkatnya. Google akan secara otomatis melakukan pencarian dengan logika boolean dengan menggunakan batasan-batasan AND, NOT, PHRASE, dan OR. google tidak mendukung pemotongan, penambahan dan tidak membedakan bentuk huruf besar atau kecil. kelebihan google menggunakan relavansi dan linking, yaity jumlah tertentu halaman-halaman sejenis yang berhubungan dengan halamab yang dicari. Google juga menyediakan file-file berekstensi PDF yang jarang dihasilkan oleh alat-alat pencari lainnya.
3. Yahoo : untuk yahoo tidak mementingkan layaknya seperti google. yahoo tidak menggunakan robot dalam membuat direktori informasi, web ini bergantung pada jumlah website yang didaftakan di direktori mereka. Sekalipun demikian yahoo sangat selektif dalam menerima situs-situs yang didaftarkan. karena yahoo tidak mempunyai jangkauan yang luas, maka web ini menyediakan mesin pencari milik google sebagai pelengkap.
4. google dan Altavista :
1. Loading altavista lebih lama daripada google.
2. Tampilan altavista kurang menarik
3. Altavista lebih sulit dalam pengambilan data dibanding google.
5. Alltheweb : metode pencarian dalam web ini menggunakan logika boolean. kita dapat membatasi pencarian hanya pada judul, teks, nama link, URL, link, bahasa, dan domain. Ranking pencarian didasarkan pada relavansi, analisa link, penempatan teks pada halaman tertentu, danpenggunaan kata kunci.
WEB ARCHIVING
DEFINISI :
adalah proses mengumpulkan bagian
dari WWW dan memastikan koleksi tersebut diawetkan dalam suatu arsip, misalnya
situs arsip, untuk diakses peneliti, sejarawan, dan masyarakat umum pada masa
datang. Besarnya ukuran Web membuat arsiparis web umumnya menggunakan web
crawlers untuk pengumpulan secara otomatis. Organisasi pengarsip web terbesar
yang menggunakan ancangan perangkak web ini adalah Internet Archive yang
berupaya memelihara arsip dari seluruh Web. Perpustakaan nasional, arsip
nasional, dan berbagai konsorsium organisasi lain juga terlibat dalam upaya
pengarsipan konten Web yang memiliki nilai penting bagi mereka. Perangkat lunak
dan layanan komersial juga tersedia bagi organisasi yang ingin mengarsipkan
konten web mereka sendiri untuk berbagai keperluan.
CARA KERJA WEB ARCHIVING
A. Remote Harvesting
Merupakan cara yang plaing umum dalam
web archiving dengan menggunkana teknik web crawlers yang secara otomatis
melakukan proses pengumpulan halaman web. Metode yang digunakan web crawler
untuk mengakses halaman web sama
semeprti user mengakses halaman web menggunakan wob browser. Contoh web crawler yang digunakan dalam web
archiving seperti :
·
Heritrix
·
HTTrack
·
Wget
B. On-Demand
Ada banyak layanan yang dapat digunakan sebagai sumber
archive web "on-demand", menggunakan teknik web crawling. Contohnya
seperti
· Aleph Archives
· archive.is
· Archive-It
· Archivethe.net
· Compliance WatchDog by SiteQuest
Technologies
· freezePAGE snapshots
· Hanzo Archives
· Iterasi
· Nextpoint
· Patrina
· PageFreezer
· Reed Archives
· Smarsh Web Archiving
· The Web Archiving Service
· webEchoFS
· WebCite
· Website-Archive.com
C. Database archiving
Databasa Archiving mengacu pada
metode untuk menarsipkan konten database-driven websites. Hal ini biasanya memerlukan ekstraksi konten
database ke standard schema, sering menggunakan XML. Setelah disimpan dalam
format standar, konten yang diarsipkan dari beberapa databse dapat tersedia
untuk diakses dengan menggunakan single access system. Motode ini digunkanan
seprti pada DeepArc dan Xinq masiing
masing dikembangkan oleh Bibliothèque nationale de France dan National Library of Australia.
D. Transactional archiving
Transactional archiving merupakan
event-driven yang mengumpulkan
transaksi yang berlangsung antara
web server dan web browser. Hal ini terutama
digunakan untuk menjamin keaslian dari isi suatu website, pada tanggal
tertentu. Hal ini sangatlah penting untuk organisasi atau perusahaan yang perlu
mematuhi persyaratan hukum atau peraturan untuk mengungkapkan dan
mempertahankan informasi.
Sistem yang digunakan pada
transactional archiving biasanya beroperasi dengan memeriksa setiap permintaan HTTP dan respon dari web
server, menyaring setiap aktifitas untuk menghilangkan konten yang duklikat dan
secara permanen disimpan sebagai bitstreams. Sebuah sistem transactional
archiving membutuhkan instalasi perangkat lunak pada web server, dan karena hal
itu maka metode ini tidka dapat mengumpulkan konten dari remote website.
DAFTAR PUSTAKA :
http://www.bum1.info/2012/03/web-crawler.html
http://tugasptikkelompok9.blogspot.com/2010/10/perbedaan-beberapa-searh-engine_29.html
http://tugasptikkelompok9.blogspot.com/2010/10/perbedaan-beberapa-searh-engine_29.html
http://aisyahasmoro.blogspot.com/2013/05/analisis-web.html
http://en.wikipedia.org/wiki/Web_archiving
http://archive.org/about/
http://id.wikipedia.org/wiki/WebCit
Tidak ada komentar:
Posting Komentar