Selasa, 08 Juli 2014

Analisis Web



Dalam analisis web kita akan membahas tentang pengukuran web yang akan membahas tools-tools apa saja yang digunakan untuk mengukur analisis web dan bagaimana menganalisis web itu sendiri.

1. Tools-tools pengukur analisis web :

      a. SEO (Search Engine Optimization) adalah mengoptimalkan sebuah blog/web dengan memanfaatkan mesin pencari dan mendapatkan peringkat yang tinggi di halaman pertama mesin pencari dengan menggunakan keyword agar dibanjiri pengunjung yang datang dari search engine.

     b. GTmetrix merupakan sebuah situs dimana kita dapat mengetahui berbagai hal yang membuat blog/web kita lambat dan performa blog/web ketika akses, tersedia secara gratis dengan mengunakan yahoo Yslow dan Google page speed sebagai mesin penganalisa dan menampilkan hasil juga rekomendasi yang harus dilakukan.

     Kelebihan dari GTmetrix :
  
     1. dapat membandingkan beberapa URL secara bersamaan.
     
     2. dapt menjadwalkan pengecekan web/blog secara otomatis dan dapat menyimpan laporan.  
     

      kekurangan dari GTmetrix :

     
      dalam penggunaan GTmetrix harus menggunakan koneksi internet yang cepat.

     c. Keynote Internet Testing Environment (KITE)

alat pengujian dan pengukur berbasis desktop yang digunakan untuk merekam atau mengedittransaksi web dan menganalis kinerja dari aplikasi web. KITE sangat mudah untuk digunakan dan sebagai salah satu alat yang sudah cukup terkenal didunia.   

  d. CloudStatus 

CloudStatus adalah alat pengukur web yang berfungsi menelusuri kinerja utama
dari layanan-layanan cloud computing. CloudStatus terdiri dari 5 layanan dasar yang

ditawarkan oleh amazon, dan memiliki kemampuan monitoring yang lebih baik.

     e. Jiffy
jiffy tersedia secara bebas(open source).

Cara kerja jiffy adalah dengan memasukan kode jiffy ke dalam halamanhalaman web yang akan di telusuri. Dengan jiffy kita dapat mengukur page rendering
times, melaporkan hasil pengukuran dari web server, aggregate log into database, dan
membuat laporan-laporan.


Pembasan berikutnya tentang bagaimana sebuah web perlu dianalisis , yaitu :


1. membantu mengetahui nilai yang akan didapat dari suatu web maupun blog
2. membantu memantau beberapa lama pengunjung yang membuka situs web tersebut
3. membantu mengoptimalkan situs web dalam hal penampilan dan menambah informasi.  
     


                                            CRAWLER

DEFINISI :

proses pengambilan sejumlah besar halaman web dengan cepat kedalam satu tempat penyimpanan lokal dan mengindexnya berdasarkan sejumlah kata kunci. yakni sebuah komponen utama dalam sebuah Search Engine (Mesin Pencari), sebagai Aplikasi Information Retrieval Modern

 
CARA KERJA :

suatu data dikumpulkan oleh web crawler kemudian digunakan oleh mesin pencari untuk memberikan link situs yang relavan bagi pengguna ketika mereka melakukan pencarian. web crawler menangkap banyak hal yang berbeda ketika mereka memindai situs. Informasi diperoleh dari metatag, konten itu sendiri dan link. untuk mendapatkan ide yang baik dari apa situs adalah tentang. Crawler digunakan sebagai scan situs anda. jika ada bagian-bagian tertentu dari situs yang seharusnya tidak diindeks, mereka harus mencatat dalam file ini. setelah mendapat instruksi crawler dari file ini, akan mulai dengan merangkak halaman situs anda.
Ini kemudian akan melanjutkan ke indeks konten, dan kemudian akhirnya akan mengunjungi link di situs Anda. Jika crawler mengikuti link dan tidak menemukan halaman, maka akan dihapus dari indeks. Informasi yang dikumpulkan dari situs Anda kemudian disimpan dalam database, yang kemudian digunakan oleh mesin pencari.

BEBERAPA CONTOH WEB CRAWLER :

1.Teleport Pro

Salah satu software web crawler untuk keperluan offline browsing. Software ini sudah cukup lama popular, terutama pada saat koneksi internet tidak semudah dan secepat sekarang. Software ini berbayar dan beralamatkan di http://www.tenmax.com.

2.HTTrack
Ditulis dengan menggunakan C, seperti juga Teleport Pro, HTTrack merupakan software yang dapat mendownload konten website menjadi sebuah mirror pada harddisk anda, agar dapat dilihat secara offline. Yang menarik software ini free dan dapat di download pada website resminya di http://www.httrack.com

3.Googlebot
Merupakan web crawler untuk membangun index pencarian yang digunakan oleh search engine Google. Kalau website anda ditemukan orang melalui Google, bisa jadi itu merupakan jasa dari Googlebot. Walau konsekuensinya, sebagian bandwidth anda akan tersita karena proses crawling ini.

4.Yahoo!Slurp
Kalau Googlebot adalah web crawler andalan Google, maka search engine Yahoo mengandalkan Yahoo!Slurp. Teknologinya dikembangkan oleh Inktomi Corporation yang diakuisisi oleh Yahoo!.

5.YaCy
Sedikit berbeda dengan web crawler  lainnya di atas, YaCy dibangun atas prinsip jaringan P2P (peer-to-peer), di develop dengan menggunakan java, dan didistribusikan pada beberapa ratus mesin computer (disebut YaCy peers). Tiap-tiap peer di share dengan prinsip P2P untuk berbagi index, sehingga tidak memerlukan server central. Contoh search engine yang menggunakan YaCy ialah Sciencenet, untuk pencarian dokumen di bidang sains.
  

                                                 SEARCH ENGINE


  DEFINISI :


adalah program komputer yang dirancang untuk melakukan pencarian atas berkas-berkas yang tersimpan dalam layanan www, ftp, publikasi milis, ataupun news group dalam sebuah ataupun sejumlah komputer peladen dalam suatu jaringan. Search engine merupakan perangkat pencari informasi dari dokumen-dokumen yang tersedia. Hasil pencarian umumnya ditampilkan dalam bentuk daftar yang seringkali diurutkan menurut tingkat akurasi ataupun rasio pengunjung atas suatu berkas yang disebut sebagai hits. Informasi yang menjadi target pencarian bisa terdapat dalam berbagai macam jenis berkas seperti halaman situs web, gambar, ataupun jenis-jenis berkas lainnya. Beberapa mesin pencari juga diketahui melakukan pengumpulan informasi atas data yang tersimpan dalam suatu basisdata ataupun direktori web.
Sebagian besar mesin pencari dijalankan oleh perusahaan swasta yang menggunakan algoritma kepemilikan dan basisdata tertutup, di antaranya yang paling populer adalah Google (MSN Search dan Yahoo!). Telah ada beberapa upaya menciptakan mesin pencari dengan sumber terbuka (open source), contohnya adalah Htdig, Nutch, Egothor dan OpenFTS

CONTOH-CONTOH SE :

1. GOOGLE

google muncul pada akhir tahun 1997, dimana google memasuki pasar yang telah diisi oleh para pesaing lain dalam penyediaan layanan mesin pencari, seperti Yahoo, Altavista , HotBot, Excite, InfoSeek dan Lycos. dimana perusahaan-perusahaan tersebut mengklaim sebagain perusahaan tabg bergerak dalam bidang layanan pencarian internert. Hingga akhirnya Google mampu menjadi sebagai penyedia mesin pencari yang cukup diperhitungkan didunia.

2. Yahoo

Yahoo raja directori di internet disamping para pengguna internet melihat DMOZ serta LookSma berusaha menurunkan nya diposisi puncak tersebut. akhir-akhir ini telah tumbuh secara cepat dalam ukurannya mereka pun sudah memliki harga sehingga mudah untuk memasukinya, dengan demikian mendapatkan sebuah daftar pada direktori yahoo memang memiliki nilai yang tinggi.


PERBEDAAN SEARCH ENGINE



1. Yahoo! dan bing : On page keyword merupakan faktor yang paling penting .

2. Google : linklah yang merupakan faktor yang sangat penting. halaman website google seperti wine semakin tua umurnya semakin bagus peringkatnya. Google akan secara otomatis melakukan pencarian dengan logika boolean dengan menggunakan batasan-batasan AND, NOT, PHRASE, dan OR. google tidak mendukung pemotongan, penambahan dan tidak membedakan bentuk huruf besar atau kecil. kelebihan google menggunakan relavansi dan linking, yaity jumlah tertentu halaman-halaman sejenis yang berhubungan dengan halamab yang dicari. Google juga menyediakan file-file berekstensi PDF yang jarang dihasilkan oleh alat-alat pencari lainnya.

3. Yahoo : untuk yahoo tidak mementingkan layaknya seperti google. yahoo tidak menggunakan robot dalam membuat direktori informasi, web ini bergantung pada jumlah website yang didaftakan di direktori mereka. Sekalipun demikian yahoo sangat selektif dalam menerima situs-situs yang didaftarkan. karena yahoo tidak mempunyai jangkauan yang luas, maka web ini menyediakan mesin pencari milik google sebagai pelengkap.

4. google dan Altavista : 
   1. Loading altavista lebih lama daripada google.
   2. Tampilan altavista kurang menarik
   3. Altavista lebih sulit dalam pengambilan data dibanding google.  
   
5. Alltheweb : metode pencarian dalam web ini menggunakan logika boolean. kita dapat membatasi pencarian hanya pada judul, teks, nama link, URL, link, bahasa, dan domain. Ranking pencarian didasarkan pada relavansi, analisa link, penempatan teks pada halaman tertentu, danpenggunaan kata kunci.


                                                    WEB ARCHIVING
DEFINISI :


adalah proses mengumpulkan bagian dari WWW dan memastikan koleksi tersebut diawetkan dalam suatu arsip, misalnya situs arsip, untuk diakses peneliti, sejarawan, dan masyarakat umum pada masa datang. Besarnya ukuran Web membuat arsiparis web umumnya menggunakan web crawlers untuk pengumpulan secara otomatis. Organisasi pengarsip web terbesar yang menggunakan ancangan perangkak web ini adalah Internet Archive yang berupaya memelihara arsip dari seluruh Web. Perpustakaan nasional, arsip nasional, dan berbagai konsorsium organisasi lain juga terlibat dalam upaya pengarsipan konten Web yang memiliki nilai penting bagi mereka. Perangkat lunak dan layanan komersial juga tersedia bagi organisasi yang ingin mengarsipkan konten web mereka sendiri untuk berbagai keperluan.
 
 CARA KERJA WEB ARCHIVING
 A. Remote Harvesting

Merupakan cara yang plaing umum dalam web archiving dengan menggunkana teknik web crawlers yang secara otomatis melakukan proses pengumpulan halaman web. Metode yang digunakan web crawler untuk mengakses halaman web  sama semeprti user mengakses halaman web menggunakan wob browser.  Contoh web crawler yang digunakan dalam web archiving seperti :

·         Heritrix
·         HTTrack
·         Wget


B. On-Demand

Ada banyak layanan yang dapat digunakan sebagai sumber archive web "on-demand", menggunakan teknik web crawling. Contohnya seperti
·         Aleph Archives
·         archive.is
·         Archive-It
·         Archivethe.net
·         Compliance WatchDog by SiteQuest Technologies
·         freezePAGE snapshots
·         Hanzo Archives
·         Iterasi
·         Nextpoint
·         Patrina
·         PageFreezer
·         Reed Archives
·         Smarsh Web Archiving
·         The Web Archiving Service
·         webEchoFS
·         WebCite
·         Website-Archive.com


C. Database archiving

Databasa Archiving mengacu pada metode untuk menarsipkan konten database-driven websites.  Hal ini biasanya memerlukan ekstraksi konten database ke standard schema, sering menggunakan XML. Setelah disimpan dalam format standar, konten yang diarsipkan dari beberapa databse dapat tersedia untuk diakses dengan menggunakan single access system. Motode ini digunkanan seprti pada DeepArc dan  Xinq masiing masing dikembangkan oleh Bibliothèque nationale de France dan  National Library of Australia.

D. Transactional archiving

Transactional archiving merupakan event-driven yang mengumpulkan  transaksi  yang berlangsung antara web server dan web browser.  Hal ini terutama digunakan untuk menjamin keaslian dari isi suatu website, pada tanggal tertentu. Hal ini sangatlah penting untuk organisasi atau perusahaan yang perlu mematuhi persyaratan hukum atau peraturan untuk mengungkapkan dan mempertahankan informasi.
Sistem yang digunakan pada transactional archiving biasanya beroperasi dengan memeriksa  setiap permintaan HTTP dan respon dari web server, menyaring setiap aktifitas untuk menghilangkan konten yang duklikat dan secara permanen disimpan sebagai bitstreams. Sebuah sistem transactional archiving membutuhkan instalasi perangkat lunak pada web server, dan karena hal itu maka metode ini tidka dapat mengumpulkan konten dari remote website.
  




DAFTAR PUSTAKA :



http://aisyahasmoro.blogspot.com/2013/05/analisis-web.html
http://en.wikipedia.org/wiki/Web_archiving
http://archive.org/about/
http://id.wikipedia.org/wiki/WebCit

Selasa, 29 April 2014

Pengantar Web

Definisi

Secara terminologi, website adalah kumpulan dari halaman-halaman situs, yang biasanya terangkum dalam sebuah domain atau subdomain, yang tempatnya berada di dalam World Wide Web (WWW) di Internet. Sebuahhalaman web adalah dokumen yang ditulis dalam format HTML (Hyper Text Markup Language), yang hampir selalu bisa diakses melalui HTTP, yaitu protokol yang menyampaikan informasi dari server website untuk ditampilkan kepada para pemakai melalui web browser. Semua publikasi dari website-website tersebut dapat membentuk sebuah jaringan informasi yang sangat besar.
Halaman-halaman dari website akan bisa diakses melalui sebuah URL yang biasa disebut Homepage. URL ini mengatur halaman-halaman situs untuk menjadi sebuah hirarki, meskipun, hyperlink-hyperlink yang ada di halaman tersebut mengatur para pembaca dan memberitahu mereka sususan keseluruhan dan bagaimana arus informasi ini berjalan.
Beberapa website membutuhkan subskripsi (data masukan) agar para user bisa mengakses sebagian atau keseluruhan isi website tersebut. Contohnya, ada beberapa situs-situs bisnis, situs-situs e-mail gratisan, yang membutuhkan subkripsi agar kita bisa mengakses situs tersebut.
Sejarah
Penemu website adalah Sir Timothy John ¨Tim¨ Berners-Lee, sedangkan website yang tersambung dengan jaringan, pertamakali muncul pada tahun 1991. Maksud dari Tim ketika membuat website adalah untuk mempermudah tukar menukar dan memperbarui informasi kepada sesama peneliti di tempat dia bekerja. Pada tanggal 30 April 1993, CERN (tempat dimana Tim bekerja) menginformasikan bahwa WWW dapat digunakan secara gratis oleh semua orang.
Sebuah website bisa berupa hasil kerja dari perorangan atau individu, atau menunjukkan kepemilikan dari sebuah organisasi, perusahaan, dan biasanya website itu menujukkan beberapa topik khusus, atau kepentingan tertentu. Sebuah website bisa berisi hyperlink (pranala) yang menghubungkan ke website lain, jadi, kadangkala perbedaan antara website yang dibuat oleh individu perseorangan dengan website yang dibuat oleh organisasi bisnis bisa saja tidak kentara.
Website ditulis, atau secara dinamik di konversi menjadi HTML dan diakses melalui sebuah program software yang biasa disebut dengan web browser, yang dikenal juga dengan HTTP Client. Halaman web dapat dilihat atau diakses melalui jaringan komputer dan internet, perangkatnya bisa saja berupa komputer pribadilaptopPDAataupun telepon selular.
Sebuah website dibuat didalam sebuah sistem komputer yang dikenal dengan server web, juga disebut HTTP Server, dan pengertian ini juga bisa menunjuk pada software yang dipakai untuk menjalankan sistem ini, yang kemudian menerima lalu mengirimkan halaman-halaman yang diperlukan untuk merespon permintaan dari pengguna. Apache adalah piranti lunak yang biasa digunakan dalam sebuah webserver, kemudian setelah itu adalah Microsoft Internet Information Services (IIS).
Macam-macam situs web
Sebuah Website statik, adalah salah satu bentuk website yang isi didalam website tersebut tidak dimaksudkan untuk di update secara berkala, dan biasanya di maintain secara manual oleh beberapa orang yang menggunakan software editor. Ada 3 tipe kategori software editor yang biasa dipakai untuk tujuan maintaining ini, mereka adalah :
  1. Elemen 1 Penyunting teks. Contohnya adalah Notepad atau TextEdit, dimana HTML diubah didalam program editor tersebut.
  2. Elemen 2 WYSIWYG editor. Contohnya Microsoft Frontpage dan Macromedia Dreamweaver, dimana situs di edit menggunakan GUI (Graphical User Interface) dan format HTML ini secara otomatis di generate oleh editor ini.
  3. Elemen 3 Editor yang sudah memiliki templat, contohnya Rapidweaver dan iWeb, dimana, editor ini membolehkan user untuk membuat dan mengupdate websitenya langsung ke server web secara cepat, tanpa harus mengetahui apapun tentang HTML. Mereka dapat memilih templat yang sesuai dengan keinginan mereka, menambah gambar atau obyek, mengisinya dengan tulisan, dan dengan sekejap mereka sudah dapat membuat situs web tanpa harus melihat sama sekali kode-kode HTML.
Sebuah website dynamic adalah website yang secara berkala, informasi didalamnya berubah, atau website ini bisa berhubungan dengan user dengan berbagai macam cara atau metode (HTTP cookies atau Variabel Database, sejarah kunjungan, variabel sesi dan lain-lain) bisa juga dengan cara interaksi langsung menggunakan form dan pergerakan mouse. Ketika web server menerima permintaan dari user untuk memberikan halaman tertentu, maka halaman tersebut akan secara otomatis di ambil dari media penyimpanan sebagai respon dari permintaan yang diminta oleh user. Sebuah situs dapat menampilkan dialog yang sedang berlangsung diantara dua user, memantau perubahan situasi, atau menyediakan informasi yang berkaitan dengan sang user.
Ada banyak jenis sistem software yang dapat dipakai untuk meng-generate Dynamic Web System dan Situs Dynamic, beberapa diantaranya adalah ColdFusion (CFM), Active Server Pages (ASP), Java Server Pages (JSP) dan PHP, bahasa program yang mampu untuk meng-generate Dynamic Web System dan Situs Dinamis. Situs juga bisa termasuk didalamnya berisi informasi yang diambil dari satu atau lebih database atau bisa juga menggunakan teknologi berbasis XML, contohnya adalah RSS. Isi situs yang statis juga secara periodik di generate, atau, apabila ada keadaan dimana dia butuh untuk dikembalikan kepada keadaan semula, maka dia akan di generate, hal ini untuk menghindari kinerjanya supaya tetap terjaga.
Plugin tersedia untuk menambah banyaknya feature dan kemampuan dari web browser, dimana, plugin ini dipakai untuk membuka content yang biasanya berupa cuplikan dari gambar bergerak (active content) contohnya adalah Flash, Shockwave atau applets yang ditulis dalam bahasa JAVA. Dynamic HTML juga menyediakan untuk user supaya dia bisa secara interaktif dan realtime, meng-update di web page tersebut (catatan; halaman yang diubah, tak perlu di load atau di reloaded agar perubahannya dapat dilihat), biasanya perubahan yang dilakukan mereka memakai DOM dan Javascript yang sudah tersedia pada semua Web Browser sekarang ini.
Seperti yang tertulis di atas, di luar sana ada beberapa perbedaan dalam penulisan dari terminologi website. Walaupun ¨Website¨ sudah secara umum dipakai, namun untuk Associated Press Stylebook, Reuters, Microsoft, Academia, dan kamus-kamus yang ada, penulisan yang mereka pakai adalah dengan menggunakan 2 kata, yaitu Web site. Hal ini karena ¨Web¨ bukanlah terminilogi umum, namun kependekan dari World Wide Web.
1. Web Based Learning
Pada prinsipnya web based learning juga merupakan e-learning, hanya lebih dispesifikasikan pada pembelajaran dengan menggunakan internet terutama yang berupa website, web mail, mailing list dan bulletin board yang semua fasilitas tersebut masih berbasis web. Website sendiri adalah sejumlah halaman yang dapat berupa isi (content) sesuai dengan jenis website tersebut. Isi website disampaikan dengan berbagai bentuk seperti text, audio, video, bahkan teknologi streaming.
2. Tahapan Pengembangan Web Based Learning
Dalam pengembangan web based learning terdapat beberapa elemen yang perlu diperhatikan, seperti : interaktifitas (tutorial), pewarnaan, content, layout, dan lain-lain. Tutorial merupakan bagian dari proses pembelajaran. Tutorial merupakan satu bentuk interaksi antara pengajar (dosen/pakar) dengan mahasiswa. Interaksi dan komunikasi merupakan inti dari sebuah tutorial.
3. Internet
Secara teknis, internet adalah suatu jaringan komputer global yang terbentuk dari jaringan-jaringan komputer lokal dan regional, memungkinkan komunikasi data antar komputer-komputer yang terhubung ke jaringan tersebut. Dari segi ilmu pengetahuan, internet merupakan sebuah perpustakaan besar yang didalamnya terdapat jutaan (bahkan milyaran) informasi atau data yang dapat berupa teks, grafik, suara maupun animasi dan lain–lain dalam bentuk media elektronik. Setiap orang dapat mengunjungi perpustakaan tersebut kapan saja dan dimana saja. Sedangkan dari segi komunikasi, internet adalah sarana yang sangat efisien dan efektif untuk melakukan pertukaran informasi jarak jauh maupun di dalam lingkungan tertentu.
4. Joomla
Kata joomla sendiri berasal dari bahasa swahili yang berarti “all together” atau ”as a whole” atau “bersama-sama”. Joomla merupakan web berbasis Content Management System (CMS) dan bersifat opensource yang dapat digunakan oleh siapa saja untuk keperluan pembuatan website yang sangat kompleks. Para pengembang joomla fokus pada prinsip aplikasi gratis dan tidak ingin membuat sesuatu yang bersifat komersial.
5. Macromedia Flash 8
Macromedia Flash merupakan aplikasi yang banyak digunakan oleh para profesional desain ataupun animator karena kelebihannya dalam menampilkan multimedia, gabungan antara grafis, animasi, suara, serta interaktivitas bagi user .Macromedia Flash 8 adalah versi terbaru dari Flash Sejak diakuisisi oleh Adobe, kemampuan dan fitur-fiturnya menjadi sangat dahsyat dan lengkap sehingga dapat digunakan untuk membuat berbagai macam aplikasi seperti animasi web kartun, multimedia interaktif sampai aplikasi untuk ponsel. Selain itu Flash 8 juga kompatible dengan software-software desain dan animasi lainnya.
6. Unified Modelling Language (UML)
UML (Unified Modeling Language) adalah sebuah bahasa standard yang digunakan untuk menspesifikasikan, memvisualisasikan, membangun, dan mendokumentasikan objek-objek dari sistem software, untuk urusan pemodelan dan sistem non-software. Bahasa permodelan ini digunakan untuk memahami, mendesain, menkonfigurasikan, memelihara dan mengontrol informasi yang terdapat dalam sebuah sistem. UML menggambarkan struktur yang statis (static structure) dan kelakuan yang dinamis (dynamic behavior) dari sebuah sistem. Sebuah sistem dalam UML digambarkan sebagai kumpulan objek diskrit yang saling berinteraksi untuk mencapai suatu tujuan yang berguna bagi pengguna. Dalam struktur yang statis, UML mendefinisikan objek-objek penting yang terdapat dalam system dan implementasinya, dan menggambarkan interaksi antara objek-objek tersebut. Sedangkan dalam kelakuan yang dinamis, UML mendefinisikan sejarah suatu objek dan dan komunikasi antar objek tersebut untuk mencapai suatu tujuan.
7. Mengenal StartUML
StarUML adalah software permodelan yang mendukung UML (Unified Modeling Language). Berdasarkan pada UML version 1.4 dan dilengkapi 11 macam diagram yang berbeda, mendukung notasi UML 2.0 dan juga mendukung pendekatan MDA (Model Driven Architecture) dengan dukungan konsep UML. StarUML dapat memaksimalkan pruduktivitas dan kualitas dari suatu software project.
8. Struktur Navigasi
Struktur navigasi adalah struktur alur cerita dari sebuah program sebelum menyatukan elemen-elemen yang digunakan dalam aplikasi multimedia, sebaiknya kita mendefinisikan objek-objek dan merancang tampilan. Agar semua objek yang termasuk di dalam aplikasi tersebut tidak mengalami kerancuan informasi, dengan kata lain semua tampilan harus dapat memberikan informasi yang bulat dan utuh sehingga dapat tercapai suatu pembentukan aplikasi multimedia. Dalam pembuatan aplikasi multimedia ada empat macam struktur navigasi yang dapat digunakan.

sumber :
http://ilhamsyahputraa.blogspot.com/2012/04/pengantar-web-definisi-secara.html