perkenalan
WWW adalah salah satu aplikasi paling populer di Internet. Pertumbuhannya yang pesat telah menyebabkan kemacetan jaringan dan kelebihan beban server, yang mengakibatkan peningkatan penundaan akses pelanggan dan masalah kualitas layanan WWW. Teknologi caching dianggap sebagai salah satu cara efektif untuk mengurangi beban server, mengurangi kemacetan jaringan, dan meningkatkan skalabilitas WWW. Ide dasarnya adalah menggunakan prinsip lokalitas temporal akses pelanggan untuk menyimpan konten yang telah diakses pelanggan di Cache. Menyimpan salinan. Ketika konten diakses di lain waktu, konten tersebut tidak harus terhubung ke situs web hosting, namun disediakan oleh salinan yang disimpan di Cache.
Konten web dapat di-cache di sisi klien, server proxy, dan server. Penelitian menunjukkan bahwa teknologi caching dapat meningkatkan kinerja WWW secara signifikan [1][2], dan dapat memberikan manfaat berikut:
(1) Mengurangi lalu lintas jaringan, sehingga mengurangi kemacetan jaringan;
(2) Mengurangi penundaan akses pelanggan. Alasan utamanya adalah: ① Untuk konten yang di-cache di server proxy, pelanggan dapat memperolehnya langsung dari proxy, bukan dari server jarak jauh, sehingga mengurangi penundaan transmisi; ke kemacetan jaringan dan beban server berkurang sehingga dapat diperoleh pelanggan lebih cepat;
(3) Karena sebagian konten permintaan klien dapat diperoleh dari proxy, beban pada server jauh berkurang;
(4) Jika server jarak jauh tidak dapat menanggapi permintaan klien karena kegagalan server jarak jauh atau kegagalan jaringan, klien dapat memperoleh salinan konten yang di-cache dari proxy, yang meningkatkan ketahanan layanan WWW.
Sistem cache web juga menimbulkan masalah berikut:
(1) Konten yang diperoleh pelanggan melalui agen mungkin sudah ketinggalan zaman;
(2) Jika terjadi pembatalan cache, latensi akses klien meningkat karena overhead pemrosesan proksi tambahan. Oleh karena itu, ketika merancang sistem cache Web, seseorang harus berusaha untuk memaksimalkan tingkat hit Cache dan meminimalkan biaya kegagalan;
(3) Agen dapat menjadi penghambat. Oleh karena itu, batas atas jumlah pelanggan layanan dan batas bawah efisiensi layanan harus ditetapkan untuk agen, sehingga efisiensi sistem agen setidaknya sama efisiennya dengan klien yang terhubung langsung ke server jarak jauh.
Saat ini, penelitian ekstensif dan mendalam telah dilakukan seputar sistem caching Web dan masalah pengoptimalannya, dan penelitian ini terutama berfokus pada peran proxy.
2 Karakteristik Ideal Sistem Caching Web Sistem caching Web yang ideal harus memiliki karakteristik berikut:
(1) Kecepatan: Sistem caching harus mampu secara efektif mengurangi penundaan akses pelanggan;
(2) Kekokohan: Kekokohan berarti ketersediaan, dan pelanggan menginginkan layanan Web tersedia kapan saja;
(3) Transparansi: Sistem caching harus transparan kepada pelanggan, dan hasil yang diperoleh pelanggan hanyalah respon cepat dan ketersediaan yang baik;
(4) Skalabilitas: Sistem cache web harus dapat diskalakan dengan baik seiring dengan pertumbuhan ukuran dan kepadatan jaringan;
(5) Efisiensi: Semakin kecil overhead sistem cache Web yang dibawa ke jaringan, semakin baik;
(6) Kemampuan beradaptasi: Sistem caching dapat beradaptasi dengan perubahan dinamis dalam permintaan pelanggan dan lingkungan jaringan, yang melibatkan manajemen cache, perutean cache, konfigurasi proxy, dll., dan sangat penting untuk mendapatkan kinerja cache yang ideal;
(7) Stabilitas: Solusi yang diadopsi oleh sistem caching Web tidak boleh menyebabkan ketidakstabilan pada jaringan;
(8) Penyeimbangan beban: Solusi caching yang ideal harus mampu mendistribusikan beban secara merata ke seluruh jaringan untuk menghindari agen atau server tertentu menjadi hambatan atau hot spot, yang menyebabkan penurunan kinerja sebagian sistem atau bahkan keseluruhan sistem;
(9) Kemampuan pemrosesan heterogen: Ketika skala jaringan dan area jangkauan terus meningkat, jaringan akan menjangkau serangkaian arsitektur perangkat keras dan perangkat lunak yang berbeda. Sistem cache web harus mampu beradaptasi dengan arsitektur jaringan yang berbeda;
(10) Kesederhanaan: Solusi sederhana mudah diterapkan dan diterima secara umum. Solusi cache web yang ideal harus sederhana dan mudah dikonfigurasi.
Berfokus pada karakteristik di atas, sistem cache Web harus menyelesaikan masalah berikut:
(1) Arsitektur cache: bagaimana proxy caching diatur dan dikonfigurasi dalam jaringan;
(2) Kerja sama agen: Cara bekerja sama antar agen. Agen yang bekerja sama satu sama lain dapat meningkatkan hit rate dan meningkatkan kinerja sistem cache;
(3) Perutean cache: ketika satu proxy cache gagal, cara meneruskan permintaan ke proxy cache lainnya;
(4) Algoritma penggantian cache: ketika ruang cache tidak cukup, bagaimana cara mengganti konten cache;
(5) Konsistensi cache: yaitu ketepatan waktu konten yang di-cache dan cara mencegah konten yang di-cache menjadi usang;
(6) Pengambilan konten terlebih dahulu: Bagaimana agen memutuskan untuk mengambil konten terlebih dahulu dari server atau agen lain untuk mengurangi penundaan akses klien;
(7) Penyeimbangan beban: Bagaimana mengatasi fenomena "Hot spot" di jaringan;
(8) Konten cache: Jenis konten apa yang dapat di-cache.
Saat merancang sistem caching web, masalah di atas harus diatasi.
3 Ikhtisar Solusi Caching Web
3.1 Arsitektur Cache Web Kinerja sistem cache Web bergantung pada ukuran basis pelanggannya. Semakin besar basis pelanggan, semakin tinggi kemungkinan konten cache akan diminta lagi. Grup cache yang bekerja sama satu sama lain dapat meningkatkan tingkat hit dan meningkatkan kinerja sistem cache. Oleh karena itu, arsitektur sistem cache harus memastikan bahwa agen dapat bekerja sama secara efektif. Arsitektur cache yang umum meliputi: hierarki, terdistribusi, dan hibrid.
Gambar 1 Diagram arsitektur sistem caching web
3.1.1 Arsitektur cache hierarki
Proyek Harvest [3] pertama kali mengusulkan arsitektur cache web hierarki. Dalam arsitektur cache hierarki, Cache dikonfigurasi pada beberapa tingkat di jaringan, seperti yang ditunjukkan pada Gambar 1(a). Demi kesederhanaan, diasumsikan ada empat level: Cache lapisan bawah, Cache lapisan lokal, Cache lapisan regional, dan Cache lapisan area luas. Lapisan paling bawah adalah Cache klien/browser. Bila Cache klien tidak dapat memenuhi permintaan klien, permintaan diteruskan ke Cache lapisan area lokal. Jika masih belum terpenuhi, permintaan diteruskan ke Cache lapisan regional hingga luas lapisan area Cache. Jika permintaan tidak dapat dipenuhi dalam cache di semua tingkatan, permintaan tersebut akhirnya diteruskan ke server. Respons server terhadap permintaan tersebut kemudian dikirim dari atas ke bawah ke klien, meninggalkan salinan di setiap cache tingkat menengah di sepanjang proses. Permintaan lain untuk konten yang sama diteruskan dari bawah ke atas hingga dipenuhi dalam tingkat cache tertentu.
Arsitektur cache hierarki sangat efisien dalam bandwidth, dan konten web dengan rasio klik-tayang tinggi dapat didistribusikan ke jaringan dengan cepat dan efisien. Namun arsitektur ini juga mempunyai beberapa kekurangan[4]:
(1) Membangun arsitektur cache hierarki. Server cache harus dikonfigurasi pada titik akses utama dalam jaringan, dan server cache harus bekerja sama satu sama lain;
(2) Setiap level Cache akan menimbulkan penundaan tambahan;
(3) Cache tingkat tinggi dapat menjadi penghambat dan menyebabkan penundaan antrian yang lama;
(4) Beberapa salinan dari konten yang sama disimpan dalam cache yang berbeda, dan pemanfaatan ruang cache di seluruh sistem tidak tinggi.
3.1.2 Arsitektur Cache Terdistribusi Mengingat kekurangan struktur cache hierarki yang disebutkan di atas, beberapa peneliti telah mengusulkan arsitektur cache terdistribusi. Dalam struktur ini, hanya ada Cache tingkat rendah, seperti yang ditunjukkan pada Gambar 1(b). Dalam struktur cache Web terdistribusi dalam literatur [5], tidak ada lapisan Cache perantara di luar lapisan lokal, dan cache bekerja sama satu sama lain untuk menangani kegagalan. Untuk menentukan cache lapisan area lokal mana yang meneruskan permintaan klien untuk mendapatkan konten yang tidak valid, setiap cache lapisan area lokal menyimpan salinan informasi direktori dari konten yang di-cache di cache lapisan area lokal lainnya, sehingga permintaan klien dapat diteruskan secara akurat ketika terjadi pembatalan. Ke lapisan lokal yang sesuai Cache. Protokol Perutean Array Cache CARP [6] (Protokol Perutean Array Cache) adalah skema caching terdistribusi yang membagi ruang URL menjadi beberapa bagian dan menugaskan setiap bagian ke grup Cache yang digabungkan secara longgar. Setiap Cache hanya dapat melakukan Cache pada konten web yang memiliki URL yang ditetapkan untuk itu, sehingga memungkinkan untuk menentukan Cache mana yang akan meneruskan permintaan berdasarkan URL dari mana klien meminta konten.
Dalam struktur cache terdistribusi, sebagian besar lalu lintas jaringan terjadi di bagian bawah jaringan, yang cenderung menyebabkan kemacetan jaringan yang tinggi, pembagian beban dapat dicapai dengan lebih baik, dan toleransi kesalahan lebih baik. Namun, konfigurasi sistem cache terdistribusi skala besar mungkin menghadapi beberapa masalah: jumlah koneksi yang tinggi, kebutuhan bandwidth yang tinggi, dan manajemen yang sulit [4].
3.1.3 Arsitektur cache hibrid Arsitektur hibrid ditunjukkan pada Gambar 1(c). Cache pada tingkat yang sama mengadopsi struktur cache terdistribusi dan bekerja sama satu sama lain. Internet Cache Protocol ICP (Internet Cache Protocol) yang dirancang oleh Harvest Group mendukung perolehan konten yang sesuai dari Cache induk atau Cache tetangga dengan RTT terkecil.
3.1.4 Penelitian optimasi pada arsitektur cache menunjukkan bahwa [4] dibandingkan dengan struktur cache terdistribusi, arsitektur cache hierarki memiliki waktu koneksi yang lebih pendek, sehingga dokumen yang lebih kecil di-cache di lapisan tengah Cache. Latensi akses dapat dikurangi; struktur cache terdistribusi lebih pendek waktu transmisi dan pemanfaatan bandwidth yang lebih tinggi. Solusi idealnya adalah menggabungkan keduanya untuk memaksimalkan kekuatan masing-masing sekaligus mengurangi waktu koneksi dan waktu transmisi.
3.2 Perutean Cache Mengingat skalabilitas sistem caching Web, sebagian besar sistem caching menyebarkan sejumlah besar Cache di Internet. Masalah terbesar yang ditimbulkannya adalah bagaimana menemukan Cache yang menyimpan konten yang diperlukan dengan cepat . Masalah ini agak mirip dengan perutean jaringan, tetapi tidak dapat diselesaikan dengan cara yang sama. Perutean jaringan tradisional dapat didasarkan pada pengelompokan alamat (representasi alamat hierarki memungkinkan pengelompokan alamat), tetapi di WWW, dokumen dengan awalan URL atau awalan alamat server yang sama tidak dapat dikirim ke klien yang sama, sehingga menyulitkan untuk merutekan Alamat adalah berkerumun sehingga tabel perutean cache menjadi sangat besar. Selain itu, konten cache terus diperbarui, dan informasi perutean cache yang ketinggalan jaman akan menyebabkan pembatalan cache. Untuk mengurangi biaya kegagalan cache, algoritma perutean cache yang ideal harus merutekan permintaan klien ke proxy berikutnya, yang memiliki kemungkinan lebih tinggi untuk diterima dan terletak di atau dekat jalur jaringan dari klien ke server.
3.2.1 Metode tabel routing caching
Malpani et al. [7] menggabungkan sekelompok Cache. Ketika permintaan klien diteruskan ke Cache yang ditentukan, jika Cache memiliki konten yang diminta, maka akan dikirim ke klien melalui IP multicast. Cache lain dalam grup yang sama merespons permintaan klien dari cache yang menyimpan konten terkait. Jika konten yang diminta tidak di-cache di cache mana pun, permintaan diteruskan ke server asal. Sistem cache Harvest[3] mengatur cache ke dalam struktur hierarki dan menggunakan Protokol Resolusi Cache ICP (Internet Cache Protocol). Ketika kegagalan cache terjadi, cache tingkat rendah terlebih dahulu menanyakan cache node saudaranya sebelum meneruskan permintaan pelanggan ke cache tingkat atas. Apakah konten terkait di-cache untuk menghindari kelebihan beban Cache tingkat atas. Sistem caching web adaptif [8] membuat pohon Cache untuk setiap server. Cache di pohon disusun menjadi kelompok multicast yang tumpang tindih, dan permintaan memperoleh konten cache yang sesuai melalui kelompok transmisi ini. Metode ini membangun pohon Cache yang berbeda untuk setiap server, sehingga tidak ada masalah kelebihan beban pada node akar, dan konfigurasi mandiri serta ketahanannya relatif baik. Namun, permintaan konten dengan rasio klik-tayang rendah mungkin melewati lebih banyak cache, sehingga mengakibatkan overhead komunikasi cache yang lebih besar. Penulis menyarankan untuk membatasi jumlah cache yang dilewati permintaan untuk mengatasi masalah ini.
3.2.2 Metode fungsi hash
Protokol Perutean Array Cache CARP [6] menggunakan fungsi hash berdasarkan daftar anggota array dan URL untuk menentukan alamat cache yang tepat dari objek Web atau di mana objek Web harus di-cache. Dalam Ringkasan Cache [9], masing-masing proxy menyimpan informasi ringkasan URL dari konten yang di-cache oleh proxy lain dalam grup yang sama. Proxy memeriksa informasi ringkasan ini ketika meneruskan permintaan klien untuk menentukan proxy mana yang akan meneruskan permintaan tersebut. Untuk mengurangi overhead, informasi ringkasan ini diperbarui secara berkala. Eksperimen menunjukkan bahwa sistem ini dapat secara signifikan mengurangi jumlah informasi antara cache, konsumsi bandwidth, dan overhead CPU yang disebabkan oleh protokol, sambil mempertahankan tingkat cache hit yang hampir sama dengan ICP.
3.3 Algoritma penggantian cache
Algoritma penggantian Cache merupakan faktor penting yang mempengaruhi kinerja sistem cache proxy. Algoritma penggantian Cache yang baik dapat menghasilkan hit rate yang lebih tinggi. Algoritma yang telah diusulkan sejauh ini dapat dibagi menjadi tiga kategori berikut:
(1) Algoritme penggantian tradisional dan evolusi langsungnya. Algoritme perwakilannya adalah: ①Algoritma LRU (Least Almost Used): mengganti konten yang paling jarang digunakan dari Cache; ②LFU (Lease frequently Used): mengganti konten yang paling jarang digunakan Cache Cache; ③Pitkow/Recker[10] mengusulkan algoritma penggantian: jika semua konten di Cache di-cache pada hari yang sama, dokumen terbesar akan diganti dari Cache, jika tidak maka akan diganti sesuai dengan algoritma LRU.
(2) Algoritme penggantian berdasarkan karakteristik utama konten cache. Algoritme perwakilannya meliputi: ①Algoritma penggantian ukuran[10]: mengganti konten terbesar dari Cache; ②LRU-MIN[11] algoritma penggantian: Algoritme ini berupaya untuk membuat dokumen yang diganti individu Jumlahnya paling sedikit. Asumsikan ukuran dokumen yang akan di-cache adalah S, dan dokumen yang di-cache di cache dengan ukuran minimal S akan diganti sesuai dengan algoritma LRU; algoritma digunakan dari dokumen dengan ukuran minimal S/2. Ganti; ③LRU—Algoritma penggantian Threshold[11]: Sama dengan algoritma LRU, hanya saja dokumen yang ukurannya melebihi ambang batas tertentu tidak dapat di-cache; 12] algoritma penggantian: Ganti dokumen dengan penundaan akses terkecil dari cache.
(3) Algoritma penggantian berbasis biaya. Algoritma jenis ini menggunakan fungsi biaya untuk mengevaluasi objek di Cache, dan akhirnya menentukan objek pengganti berdasarkan nilai biaya. Algoritme representatifnya adalah: Algoritma ①Hybrid[12]: Algoritme ini menetapkan fungsi utilitas untuk setiap objek di Cache, dan mengganti objek dengan nilai utilitas terkecil dari Cache; ②Algoritma Nilai Relatif Terendah[13]: mengganti objek dengan nilai utilitas terendah dari Cache ; ③ Algoritma Penggantian Biaya Normalisasi Terkecil (LCNR) [14]: Algoritma ini menggunakan fungsi inferensi tentang frekuensi akses dokumen, waktu transmisi dan ukuran untuk menentukan dokumen pengganti; mengusulkan metode berdasarkan biaya waktu transmisi dokumen, Ukuran, dan fungsi inferensi tertimbang dari waktu akses terakhir digunakan untuk menentukan penggantian dokumen; Algoritma ⑤Size-Adjust LRU (SLRU) [16]: Mengurutkan objek yang di-cache berdasarkan rasio biaya sesuai ukurannya, dan pilih objek dengan rasio terkecil untuk penggantian.
Singkatnya, untuk memaksimalkan tingkat hit Cache, banyak pekerjaan telah dilakukan seputar algoritma penggantian Cache. Namun, kinerja algoritma penggantian sangat bergantung pada karakteristik akses WWW menangani semua mode akses Web lebih baik daripada algoritma lainnya.
3.4 Konsistensi cache
Sistem cache web dapat mengurangi latensi akses, namun memiliki efek samping: salinan cache yang diberikan kepada pelanggan mungkin merupakan konten yang sudah ketinggalan zaman, sehingga mekanisme konsistensi cache harus ada untuk memastikan bahwa konten cache dapat diperbarui dan divalidasi secara tepat waktu. cara. , untuk menyediakan konten terbaru kepada pelanggan.
Saat ini ada dua jenis utama konsistensi cache: konsistensi cache yang kuat dan konsistensi cache yang lemah.
3.4.1 Konsistensi cache yang kuat (1) Konfirmasi klien: Untuk setiap akses, proxy menganggap konten yang di-cache sudah usang dan mengirimkan header "IF-Modified- Since-date" ke server dengan permintaan tersebut. Jika konten berubah setelah waktu yang ditentukan, server mengirimkan konten yang diperbarui ke agen dan akhirnya ke klien; jika konten yang diminta belum diubah, respons "304" dikirim kembali, yang menunjukkan bahwa dokumen tersebut belum diubah dan konten yang di-cache terus efisien.
(2) Konfirmasi server: Ketika server mendeteksi bahwa konten telah berubah, server mengirimkan informasi pembatalan ke semua klien yang baru-baru ini meminta konten dan mungkin telah menyimpan konten dalam cache [17]. Metode ini mengharuskan server menyimpan daftar tertaut dari klien yang mengakses konten untuk mengirimkan informasi yang tidak valid. Jika jumlah klien banyak, metode ini tidak dapat diterapkan , menyebabkan server mengirim pesan ke banyak klien yang tidak lagi di-cache. Pelanggan konten ini dikirimi informasi yang tidak valid.
3.4.2 Konsistensi cache yang lemah (1) Mekanisme TTL adaptif [18] (Time To Live): dengan mengamati masa pakai dokumen untuk menyesuaikan waktu kelangsungan hidupnya, sehingga memecahkan masalah konsistensi cache. Jika suatu dokumen tidak diubah dalam jangka waktu yang cukup lama, maka cenderung tidak akan diubah lagi. Dengan cara ini, atribut seumur hidup dokumen diberikan persentase dari "usia" dokumen saat ini (sama dengan waktu saat ini dikurangi waktu modifikasi terakhir). Metode TTL adaptif dapat mengontrol kemungkinan suatu dokumen menjadi usang hingga kurang dari 5%. Sebagian besar server proxy menggunakan mekanisme ini, tetapi mekanisme konsistensi cache berdasarkan masa pakai dokumen tidak menjamin validitas konten yang di-cache.
(2) Mekanisme pembatalan dukung-dukungan
Krishnamurthy et al. mengusulkan penggunaan mekanisme pembatalan piggy-back untuk meningkatkan efisiensi koherensi cache. Mereka mengusulkan tiga mekanisme: ① Mekanisme Piggyback Cache Validation (PCV) [19]: menggunakan permintaan yang dikirim oleh proxy ke server untuk meningkatkan konsistensi cache. Misalnya, ketika proxy membuat permintaan ke server, ia membawa serangkaian konten yang disimpan dalam cache tetapi mungkin sudah ketinggalan zaman dari server untuk konfirmasi validitas; ② Mekanisme Piggyback Service Invalidation (PSI) [20] (Piggyback Service Invalidation): ide dasarnya adalah ketika server merespons proksi, ia memberi tahu server proksi serangkaian konten yang telah berubah sejak akses proksi terakhir dan proksi membatalkan konten ini, sehingga memperpanjang waktu cache konten cache lainnya di Cache; dan mekanisme hibrida PCV [21]: Mekanisme ini menentukan mekanisme mana yang akan digunakan untuk mencapai kinerja keseluruhan terbaik berdasarkan ukuran interval saat ini sejak permintaan terakhir dibatalkan oleh agen. Jika interval waktu ini kecil, mekanisme PSI digunakan, jika tidak, mekanisme PCV digunakan untuk mengonfirmasi konten cache. Prinsip dasarnya adalah semakin kecil interval waktu maka semakin kecil pula jumlah void yang dikirim bersamaan dengan PSI, namun seiring bertambahnya waktu, overhead pengiriman void akan lebih besar dibandingkan overhead permintaan konfirmasi.
3.5 Pengambilan konten terlebih dahulu
Teknologi cache web dapat meningkatkan kinerja Web, namun penelitian menunjukkan [22] bahwa apa pun skema cache yang digunakan, tingkat cache maksimum biasanya tidak lebih dari 40 hingga 50%. Untuk lebih meningkatkan tingkat cache hit, teknologi prefetching diperkenalkan. Teknologi prefetch pada dasarnya adalah teknologi caching aktif. Ide dasarnya adalah menggunakan pengetahuan sebelumnya tentang konten atau mode akses pelanggan untuk memprediksi konten permintaan pelanggan berikutnya saat memproses permintaan pelanggan saat ini, dan menggunakan konten yang diminta pelanggan untuk menyimpan konten prediksi dalam cache Gap. Cache untuk menyembunyikan latensi dengan lebih baik dan meningkatkan kualitas layanan.
Penelitian awal berfokus pada pengambilan konten antara browser/klien dan server Web. Ketika proxy diperkenalkan, minat penelitian masyarakat beralih ke teknologi pengambilan awal antara proxy dan server. Penelitian menunjukkan bahwa teknologi pengambilan data dapat secara efektif mengurangi latensi akses pelanggan, namun teknologi pengambilan data masih kontroversial karena dua alasan:
(1) Pengambilan konten terlebih dahulu adalah tugas dengan persyaratan waktu nyata yang tinggi. Ini terutama menggunakan interval permintaan pelanggan, dan interval ini biasanya kurang dari satu menit [23]. , pengambilan awal akan menjadi tidak ada artinya. Oleh karena itu, terdapat persyaratan yang lebih tinggi untuk efisiensi algoritma prefetch.
(2) Pengambilan awal konten mengurangi waktu respons klien dengan mengorbankan peningkatan beban server dan lalu lintas jaringan, sehingga terdapat persyaratan yang lebih tinggi untuk akurasi pengambilan awal. Pada saat yang sama, model pengambilan awal harus mempertimbangkan karakteristik akses pelanggan, beban server, dan kondisi lalu lintas jaringan ketika menentukan jumlah dokumen yang diambil terlebih dahulu tanpa faktor-faktor ini mungkin memiliki efek kontraproduktif.
Singkatnya, model prefetching yang baik harus memiliki efisiensi dan akurasi yang tinggi dengan biaya yang rendah. Penelitian lebih lanjut diperlukan seputar efisiensi dan akurasi pengambilan awal.
3.5 Load Balancing Ketika banyak pelanggan memperoleh data atau layanan dari server secara bersamaan, maka akan terjadi fenomena Hot Spot yang mengakibatkan penurunan kinerja server atau bahkan kegagalan. Sebagian besar metode saat ini untuk mengatasi masalah ini adalah dengan menggunakan beberapa strategi replikasi untuk menyimpan konten yang diminta di Internet, sehingga mendistribusikan beban ke beberapa server (agen) [24] untuk menghindari satu server menjadi hambatan.
3.6 Menyimpan konten dalam cache Sebuah proxy dapat memainkan peran ganda. Selain melakukan cache data, ia juga dapat melakukan cache koneksi dan cache perhitungan. Caching koneksi mengacu pada penggunaan koneksi persisten antara klien dan agen, serta agen dan server untuk mengurangi overhead pembuatan koneksi TCP dan overhead awal yang lambat saat server mengirim, sehingga mengurangi waktu tunda akses pelanggan [25 ]. Caching komputasi dapat dilihat sebagai server Web yang dapat memigrasikan beberapa layanannya ke proxy untuk mengurangi kemacetan server. Salah satu aplikasinya adalah cache data dinamis, yang menyimpan cache data dinamis melalui proxy dan memigrasikan sebagian perhitungan ke proxy, yang dihasilkan oleh proxy. proxy.dan memelihara data dinamis yang di-cache, sehingga meningkatkan kinerja pelanggan dalam memperoleh data dinamis.
4 Masalah yang memerlukan penelitian lebih lanjut Sejumlah besar penelitian telah dilakukan seputar teknologi cache Web dan hasil yang bermanfaat telah dicapai, namun masih ada beberapa masalah yang memerlukan penelitian lebih lanjut. Masalah-masalah ini meliputi:
(1) Penelitian tentang pola akses pelanggan: Dengan mempelajari pola akses pelanggan, kami dapat melakukan manajemen cache dan pengambilan konten terlebih dahulu dengan lebih baik, serta meningkatkan tingkat cache hit;
(2) Caching data dinamis: Alasan penting mengapa tingkat hit cache web saat ini tidak tinggi adalah karena sebagian besar konten (data pribadi, data resmi, data dinamis, dll.) tidak dapat di-cache. Bagaimana membuat lebih banyak data dapat di-cache dan bagaimana mengurangi penundaan akses bagi pelanggan untuk mengakses halaman yang tidak di-cache telah menjadi isu utama dalam meningkatkan kinerja Web;
(3) Karakteristik lalu lintas Web: Efisiensi sistem caching terletak pada lokalitas waktu arus akses Web dan strategi manajemen Cache yang baik. Memahami karakteristik beban yang dihasilkan oleh klien Web sangat penting untuk merancang dan menyediakan layanan Web yang lebih baik;
(4) Konfigurasi proxy: Untuk mendapatkan kinerja Web yang baik, konfigurasi proxy sangat penting. Standar ideal untuk strategi konfigurasi proxy adalah: pengorganisasian mandiri, perutean yang efisien, penyeimbangan beban, perilaku stabil, dll. Diperlukan penelitian lebih lanjut mengenai masalah ini.
Singkatnya, penelitian mutakhir untuk meningkatkan kinerja Web terletak pada pengembangan solusi caching yang terukur, kuat, mudah beradaptasi, stabil, efisien, dan dapat dikonfigurasi dengan lebih baik di jaringan saat ini dan masa depan.
Wang Shike Wu Ji Jin Shiyao
(Laboratorium Paralelisme dan Distribusi Kunci Negara, Sekolah Ilmu Komputer, Universitas Nasional Teknologi Pertahanan, Changsha 410073)
-