
Az off-line böngészõk fejlesztõi a web lassúságára hivatkoznak termékeik ajánlásánál (World Wait Web). Funkcióját tekintve ez a böngészési elv tényleg lerövidítheti az on-line idõt, teljesen mégsem helyettesítheti hagyományos társaikat, mert a dinamikus weblapok vagy a kitöltendõ adatlapok off-line nem mûködnek.
Az off-line böngészõk egy megadott URL címrõl, és az azt követõ linkekrõl helyi gépünkre mentik az oldalakat, képeket vagy más csatlakozó állományokat. Utána azt kedvenc böngészõnkkel nézegethetjük immár megspórolva a telefonköltséget. A gyakorlat azonban nem ilyen egyszerû. Részint a szoftverek használhatósága kis részben függ a webszervertõl - például a directory tartalmának lekérésének lehetõségétõl és egyéb olvasási/futtatási jogoktól - nagy részben pedig attól, hogyan kezelik a több oldal keresztbe mutató linkjeit. Ez utóbbi ugyanis nagyrészt meghatározza a letöltési sebességet, és azt, hogy a HTML kód fejlécébe ágyazott kliens oldali scripteket képesek-e elemezni mert ezek a sorok is gyakran tartalmazhatnak linkeket.
A teszt körülményei
A hardver egy Intel Pentium 133MHz 32MB RAM, 3GB HDD 33.6-os belsõ modem, egyszerû kapcsolt vonali Internet hozzáférés volt, Win95 alatt. Elõször egy a helyi gépre telepített webhely (O'Reilly Website Server 1.1 webszerver alatt) teljes tartalmát próbáltuk meg archiválni off-line (tehát nem a http protokollon keresztüli) elérés céljára, és ennek mértük az idejét. A webhely 447 képet és 549 HTML oldalt tartalmazott közel 20MB-on. Az egyéb filekat (hang, videó, ZIP, EXE) kiszûrtük ha volt rá lehetõség. Az on-line tesztelésre egy Internet szolgáltató support oldalait próbáltuk letölteni off-line tanulmányozás céljára. Kiinduló címe a http://www.best.com/faq/ URL volt. A táblázat két utolsó cellájában e mûveletek idejét adtuk meg, hozzátéve, hogy az on-line idõ jelentõsen függ az Internet szolgáltatótól és még sok más kürölménytõl, emiatt az off-line idõeredmény jobban jellemzi a szoftver tényleges mûködési sebességét. Az on-line mûködésre maximum 45 percük volt a programoknak.
Alapfunkciók
Az alapvetõ beállításokat az ilyen böngészõknél a Settings, Options vagy Pereferences menüpontban lehet megtalálni. Itt állíthatjuk be például ha ZIP vagy EXE kiterjesztésû, audió és/vagy videó állományokat nem akarunk letölteni várható méretük miatt vagy ha bizonyos alkönyvtárakat és URL címeket ki akarunk hagyni a folyamatból. Mindenhol beállítható a "search deept", azaz a keresés mélysége. Kétféle módon szabályozhatjuk a letöltendõ oldalak számát: a kiinduló URL címen belül, illetve a más domain-okra mutató linkek mélységét egymástól függetlenül. Mivel a kiinduló URL címbõl nem minden esetben derül ki a nyitólap neve, ezért jó ha ez külön megadható. Ugyancsak támogatják a szoftverek azt, ha jelszó megadásával lehet csak hozzáférni egy oldalhoz tûzfalon vagy proxy szerveren keresztül. A fenti funkciók minimális alapszolgáltatásai kell legyenek minden off-line böngészõnek. Sajnos a Java vagy ActiveX scriptek értelmezése és még sok apró finom-beállítási lehetõség hiányzik a programok legtöbbjébõl. További lényeges szempont, hogy ha az oldalban a hivatkozások tartalmazzák a teljes URL címet, akkor azokat módosítani kell a lokális útvonalra. Enélkül sem a képek, sem a kapcsolódó oldalak nem mûködnek a helyi gépen. További hasznos szolgáltatás a SiteMap készítése vagy a futásidejû naplózás, amibõl végül kiderülnek például a törött linkek. A sebességen nagyon sokat javít, ha a szoftver egyszerre több szálon képes mûködni. Gyakori, hogy a gépre kerülõ archívum semmiben sem hasonlít, vagy nagyban eltér a webhelyen lévõ eredetitõl. Ezért megesik, hogy több file vagy több directory keletkezik a kelleténél, az sem ritka, hogy az archívum, több helyet foglal mint az eredeti verzió.
BlackWidow
A FeketeÖzvegy nevû böngészõt a SoftByte Labs gyártja. Kipróbálásra szánt verziója nem csak idõkorlátos, hanem 500 a maximálisan letölthetõ file-k száma.
A munka kezdetén az "Explore" nyomógombot kell használnunk, miután újra jóvá kell hagynunk a letöltés körülményeit. Végül eldönthetjük, hogy csak a website struktúráját akarjuk megjeleníteni vagy egyúttal le is kívánjuk tölteni a kapcsolódó oldalakat és képeket. Munka közben a szoftver kirajzolja a készülõ könyvtárstruktúrát, amibe lokális körülmények között is csupán 5kB/sec körüli sebességgel menti le az adatokat, ami sajnos tovább romlik, ha bonyolódnak az oldalak közötti kereszthivatkozások. Újabb idõveszteség, hogy lefuttatja a szerveroldali programokat, és ezeken elég sokáig "gondolkozik". Bár az eredményt HTML file-ba írja - így például egy Sitemap még hasznos is lehet -, az adatokat feldolgozó programok viszont csak az idõt pazarolják. Ezt elkerülendõ célszerû a szûrõvel kizárni a CGI és a PL kiterjesztéseket. Végülis a program mintegy 60 perc alatt 1117 file-t töltött le 16.5MB-on. A hibátlan off-line böngészésnek csak egy akadálya volt: a beágyazott JavaScriptekben lévõ linkeket nem töltötte le, így néhány oldal hiányzott. Lassúsága mellet nem csinál összesítést, amelybõl például a törött linkek kiszûrhetõek lennének. A fenti apróságokat el is lehetne nézni a programnak, ha nem ez lenne a mezõny egyik legdrágábbja. Az on-line feladatban sem remekelt a program, 45 perc alatt csupán 280 darab file-t töltött le 2MB-on. Az eredeti könyvtárstruktúrát ugyan sikeresen reprodukálta, viszont azokat a kapcsokat, amelyek tartalmazták a szerver teljes domain nevét nem javította ki a lokális útvonalra. Így ha az oldalak szám szerint meg is érkeztek, a helyi böngészés során sok törött linkel és képpel találkozhattunk.
Ecatch

Fetch
A program ingyenes, de a webhelyen kapunk hozzá egy regisztrációs számot miután kitöltöttünk egy oldalt, ahol "indiszkrét" kérdésekkel zaklatnak (végzettség, jövedelem, beosztás, stb…). Esetünkben ezt példányonként minimum kétszer kellet megtenni mire az egy darab regisztrációs szám megérkezett e-mailban. Ingyenessége mellet sok kényelmetlen megoldása van. Például ahhoz, hogy mûködjön meg kell nyitni az Internet Explorert vagy a Navigatort, és arra címre kell irányítani amit le akarunk menteni. Felületén idõnként fizetett hirdetések is megjelennek.
Indulásnál használni kell a Go/Add Webpage menüpontot. Az így keletkezõ folderban jobb-kattintani kell a keletkezett ikonon, és a Properties menüpontban igen gyér beállítások után a Fetch nyomógombbal tölthetjük le az oldalakat. A Fetch több szálon is képes kapcsolódni az oldalakhoz, ennek ellenére a bonyolult struktúrákba, ahol gyakoriak a kereszthivatkozások nagyon belezavarodik, és a szükségesnél lényegesen nagyobb adatmennyiséget tölt le. Emiatt lassú. 20 perc alatt csupán 6 darab file-t hozott létre több mint 30 MB-on. Ezek a file-k hagyományos böngészõvel nem olvashatóak. A Fetch viszont képes használni az Internet Explorer-t arra, hogy off-line megmutassa az oldalakat. A szegényes beállítási lehetõségek mellett még hibája, hogy a kliens oldali scripteket nem elemzi. Az on-line munkával nyolc perc alatt végzett.
HTTRACK

Az On-line feladatot is profi módon hajtotta végre, 13 perc alatt 133 db file keletkezett 1MB-on, ami hibátlanul volt böngészhetõ utólag is.
NetAttaché Pro
A NetAttché igen komplex szolgáltatásokat nyújt az off-line böngészéshez. Saját webszervert telepít és indít, valamint egy keresõt és egy brief-kibontót tartalmaz. Az Entry/Add Webentry menüponttal tudjuk kezdeni a munkát, majd kattintsunk a Generate Brief nyomógombra. Végül csupán 3 file keletkezett 15MB terjedelemben 15 perc alatt. Az on-line teszt eredménye ugyancsak 3 file 1MB tárhelyen. Van ugyan egy View Brief funkció, de ez nem alkalmas arra, hogy reprodukálja a site eredeti struktúráját. Ehelyett használjuk a Netattaché Extraction Tool segédprogramot. Ezen nincs beállítási lehetõség: a Brief kiválasztása után csak kitömörítés lehetséges. A program fura módon nem reprodukálta az eredeti könyvtárstruktúrát itt sem, hanem egy directory-ba bontotta ki a összes oldalt és képet. Itt ugyan ügyelt arra, hogy a különbözõ könyvtárakban lévõ azonos filenevek ne írják felül egymást, viszont a kibontott oldalakban az eredeti könyvtárstruktúrának megfelelõek a hivatkozások. Emiatt a program csak alkönyvtárakkal nem rendelkezõ webheyek archiválásra alkalmas, különben igen kényelmetlen olvasni az oldalakat a rengeteg törött link miatt. A NetAttaché Pro bonyolultságát tekintve megéri a 40 dolláros árat, viszont a végeredmény tekintetében könnyen találunk olcsóbb és jobb szoftvert erre a feladatra.
Offline Explorer
Az Offline Explorer egyelõre 1.0 Beta verziónál tart, így fizetni sem lehet még érte. A program vélhetõen kinézetében és nevében az Internet Explorer konkurense kíván lenni, funkcionalitása és beállítási lehetõségei is rendkívül jók. Ebben a programban arra is van lehetõség, hogy az oldalba ágyazott scripteket elemezze. Sajnos a Download gomb megnyomása után pár másodperccel 'List index out of bounds' hibaüzenettel leállt a program, így a nagyobbik feladatot nem tudta végrehajtani. Kilépni is csak a Ctrl+Alt+Del gombokkal sikerült belõle. Az on-line letöltésnél a fenti hibaüzenet ugyancsak megjelent, de a háttérben a program lefutott, és 7 perc alatt 170 darab file keletkezett 1.3MB-on. Ez nem volt tökéletes, elõfordultak benne törött linkek és képek, de nagyrészt böngészhetõ volt utólag is.
WebSnake
A WebKígyót gyártó Annawave cég már nem foglalkozik szoftverfejlesztéssel, pedig Gravity nevû hírolvasója az egyik legjobb ilyen típusú program volt. Offline browsere is rendkívül jóra sikerült. Nemcsak webhelyeket képes archiválni, hanem a File/Add Project menüpontjában SiteMap és Keresõ építésére is alkalmas, továbbá képes összegyûjteni egy komplett siteról az e-mail címeket körlevelezés, esetleg spam céljára... Ha archiválni szeretnénk vele, a Mirror Site menüpontot kell használnunk. Jó ötlet, hogy egyetlen gomb bekapcsolásával kérhetõ, ne töltse le a "~" jelet tartalmazó címeket, így webszolgáltatók domain nevérõl anélkül kérhetünk le oldalakat hogy az elõfizetõk dzsungelébe keverednénk. Képes értelmezni a Java és ActiveX scripteket. Bár a projectre vonatkozóan nagyon sok finom-beállítási lehetõségünk van, ezt két menüpontban találjuk: Project/Properties és View/Options. A beállítások elvégzése után használjuk a Snake gombot! Mûködés közben a szemünk elõtt rajzolódik ki a webhely struktúrája, ami pontosan követi az eredetit. 30 dolláros árával lehetne az egyik legjobb választás, hiszen az egyik legtöbbre képes szoftver, de a bonyolult kereszthivatkozásokkal teli webhelyeket olyan lassan tölti le, hogy egy hagyományos böngészõvel hamarabb végezhetünk. Ebben az esetben 60 perc után leállítottuk a tesztet. Ezzel együtt egyszerûbb site-k archiválására kiváló. Nemcsak funkcionalitása nem hagy maga után kívánnivalót, hiszen ha valaha elkészül az archívum az tökéletesen használható, hanem felülete is kellemesen ötletes. On-line szerencsére hamarabb végzett, 15 perc alatt 113 file keletkezett 1.1MB-on. Gyakran felejtett az oldalakban on-line kapcsolódásokat, bár minden oldal és kép megérkezett, igen gyakoriak voltak a törött kapcsok.
WebVCR
A WebVCR mint nevébõl is látszik egy videomagnót próbál meg szimulálni, így például a mentést WebTape-nak nevezi. A munkát az Add Site gombbal lehet kezdeni. A WebTape elkészítésével mindössze 6 perc alatt végzett, de az ezt követõ kicsomagolási feladat leállt egy hibaüzenettel, így azt nem lehetett befejezni. Az on-line munka ugyan befejezõdött, de csak egyetlen hibaüzenetet tartalmazó HTML oldal keletkezett, amibõl azt tudhattuk meg, hogy a szervert nem találta meg a program.
WebWhacker
A teszt másik vesztese a WebWhacker. A beállítások és a Whack gomb megnyomása után után pár másodperccel figyelmeztetés nélkül "elszállt". Mindez elég magas 50 dolláros árral párosult. A böngészõnket is alkalmanként lezárja, illetve elindítja kérdés nélkül. On-line 25 perc alatt 1MB-ot mentett le, de a keletkezõ állomány nem volt alkalmas gondtalan off-line olvasásra.
WebZip

WingFlyer
Rendkívül egyszerû felület és 16 bites állományrendszer jellemzi. A 32 bites verzió 25 dollárba kerül, igaz sehogy sem sikerült kitalálni, hogyan lehet megrendelni, letölteni vagy legalább upgradelni. Képes elmenteni a webhelyet a site teljes reprodukálásával, de ekkor beleír a linkekbe, és ezek a beírások hibákat okoznak. Ha ezt elkerülendõ nem kérjük a könyvtárak létrehozását, akkor üres directory-kat kreál a program, és egy helyre menti el az összes oldalt és képet. Ebben az esetben kiveszi a hivatkozások útvonalából a könyvtárak neveit, így ez a módszer tulajdonképpen egész jól használható. Beállítási lehetõségei viszont eléggé korlátozottak, nem is mondható túl gyorsnak. A hosszú állománynevek kezelésének hiánya ugyancsak elégedetlenné teheti a felhasználót. Nem értelmezi az oldalba ágyazott scripteket és mûködési biztonsága sem száz százalékos. Az on-line tesztben csak a nyitóoldalt sikerült archiválni.
Grab-a-Site
Ez a BlueSquirrel másik off-line böngészõje. 70 dolláros árával messze a legdrágább a mezõnyben. A WebWhackerrel ellentétben ez a program legalább teljes egészében végrehajtotta a feladatot, kivéve a JavaScriptekbe ágyazott hivatkozásokat. Gyorsan végzett, teljes egészében reprodukálta a site teljes struktúráját. Beállítási lehetõségei nagyon szerények, tulajdonképpen egy egyszerû dialógusboxban elfér minden, ezen kívül csak kizáró-szûrõket tudunk alkalmazni. A törött linkeket nem sorolja fel sehol, ehelyett a hiányzó HTML oldalakat is létrehozza, benne egy szokásos Error 404 hibaüzenettel. Az on-line tesztet hibálanul, 30 percen belül hajtotta végre.
Teleport Pro

SurfSaver

WebMirror
A WebMirror magyar fejlesztés. Perl nyelvû forráskódjával és teljes dokumenációjával együtt letölhetõ a http://www.isys.hu/c/verhas/progs/perl/webmirror/ címrõl. Ez a verzió azoknak ajánlható, akik UNIX vagy Windows NT alatt akarnak archiválni vagy tükrözni egy website-ot, különösen ajánlott olyan helyekre, ahol egy adatbázis alapú alkalmazás van és a weblapokat dinamikusan generálja a szerver például egy web konferencia alkalmával. A linkek mentén végig lehet menni az információn (tehát nem kell hozzá egy form-ba keresést beírni, "csak" kattintani szükséges) és egy off-line CD-t is könnyen össze lehet állítani vele. A tükrözõ alkalmazás kitûnõen leképzi a dinamikus oldalakat statikus oldalakká.
Összefoglalás…
Mindent összevetve, két termék üzembe helyezését érdemes megfontolni: Windows alá a WebZip barátságos és informatív felületével, minden tekintetben hibátlan mûködésével és sokoldalúságával jó választás. Ugyancsak Windows alá vagy más operációs rendszereknél a HTTRACK, amely sebességével és ugyancsak tökéletes mûködésével tûnt ki a mezõnybõl, 10 dolláros árával a WebZip negyedébe kerül. Ezért az árért csupán azt az apróságot kell elviselnünk, hogy a szerveroldali scriptekbe ágyazott hivatkozásokat nem tölti le a program. Az off-line böngészõk népszerûsége nyugaton azért növekszik, mert idõt lehet vele megspórolni. Itthon pénzt is takaríthatunk meg velük.
Nincsenek megjegyzések:
Megjegyzés küldése