1998. november 1., vasárnap

Offline böngészõk

Amíg a hagyományos böngészõk piacát nagyrészt két cég terméke uralja, addig az off-line böngészõk között nincs egyértelmû egyeduralkodó. Ha ilyen szoftvereket keresünk jóval nagyobb a választási lehetõségünk mint on-line társaik között.
Az off-line böngészõk fejlesztõi a web lassúságára hivatkoznak termékeik ajánlásánál (World Wait Web). Funkcióját tekintve ez a böngészési elv tényleg lerövidítheti az on-line idõt, teljesen mégsem helyettesítheti hagyományos társaikat, mert a dinamikus weblapok vagy a kitöltendõ adatlapok off-line nem mûködnek.
Az off-line böngészõk egy megadott URL címrõl, és az azt követõ linkekrõl helyi gépünkre mentik az oldalakat, képeket vagy más csatlakozó állományokat. Utána azt kedvenc böngészõnkkel nézegethetjük immár megspórolva a telefonköltséget. A gyakorlat azonban nem ilyen egyszerû. Részint a szoftverek használhatósága kis részben függ a webszervertõl - például a directory tartalmának lekérésének lehetõségétõl és egyéb olvasási/futtatási jogoktól - nagy részben pedig attól, hogyan kezelik a több oldal keresztbe mutató linkjeit. Ez utóbbi ugyanis nagyrészt meghatározza a letöltési sebességet, és azt, hogy a HTML kód fejlécébe ágyazott kliens oldali scripteket képesek-e elemezni mert ezek a sorok is gyakran tartalmazhatnak linkeket.


A teszt körülményei

A hardver egy Intel Pentium 133MHz 32MB RAM, 3GB HDD 33.6-os belsõ modem, egyszerû kapcsolt vonali Internet hozzáférés volt, Win95 alatt. Elõször egy a helyi gépre telepített webhely (O'Reilly Website Server 1.1 webszerver alatt) teljes tartalmát próbáltuk meg archiválni off-line (tehát nem a http protokollon keresztüli) elérés céljára, és ennek mértük az idejét. A webhely 447 képet és 549 HTML oldalt tartalmazott közel 20MB-on. Az egyéb filekat (hang, videó, ZIP, EXE) kiszûrtük ha volt rá lehetõség. Az on-line tesztelésre egy Internet szolgáltató support oldalait próbáltuk letölteni off-line tanulmányozás céljára. Kiinduló címe a http://www.best.com/faq/ URL volt. A táblázat két utolsó cellájában e mûveletek idejét adtuk meg, hozzátéve, hogy az on-line idõ jelentõsen függ az Internet szolgáltatótól és még sok más kürölménytõl, emiatt az off-line idõeredmény jobban jellemzi a szoftver tényleges mûködési sebességét. Az on-line mûködésre maximum 45 percük volt a programoknak.

Alapfunkciók

Az alapvetõ beállításokat az ilyen böngészõknél a Settings, Options vagy Pereferences menüpontban lehet megtalálni. Itt állíthatjuk be például ha ZIP vagy EXE kiterjesztésû, audió és/vagy videó állományokat nem akarunk letölteni várható méretük miatt vagy ha bizonyos alkönyvtárakat és URL címeket ki akarunk hagyni a folyamatból. Mindenhol beállítható a "search deept", azaz a keresés mélysége. Kétféle módon szabályozhatjuk a letöltendõ oldalak számát: a kiinduló URL címen belül, illetve a más domain-okra mutató linkek mélységét egymástól függetlenül. Mivel a kiinduló URL címbõl nem minden esetben derül ki a nyitólap neve, ezért jó ha ez külön megadható. Ugyancsak támogatják a szoftverek azt, ha jelszó megadásával lehet csak hozzáférni egy oldalhoz tûzfalon vagy proxy szerveren keresztül. A fenti funkciók minimális alapszolgáltatásai kell legyenek minden off-line böngészõnek. Sajnos a Java vagy ActiveX scriptek értelmezése és még sok apró finom-beállítási lehetõség hiányzik a programok legtöbbjébõl. További lényeges szempont, hogy ha az oldalban a hivatkozások tartalmazzák a teljes URL címet, akkor azokat módosítani kell a lokális útvonalra. Enélkül sem a képek, sem a kapcsolódó oldalak nem mûködnek a helyi gépen. További hasznos szolgáltatás a SiteMap készítése vagy a futásidejû naplózás, amibõl végül kiderülnek például a törött linkek. A sebességen nagyon sokat javít, ha a szoftver egyszerre több szálon képes mûködni. Gyakori, hogy a gépre kerülõ archívum semmiben sem hasonlít, vagy nagyban eltér a webhelyen lévõ eredetitõl. Ezért megesik, hogy több file vagy több directory keletkezik a kelleténél, az sem ritka, hogy az archívum, több helyet foglal mint az eredeti verzió.

BlackWidow

A FeketeÖzvegy nevû böngészõt a SoftByte Labs gyártja. Kipróbálásra szánt verziója nem csak idõkorlátos, hanem 500 a maximálisan letölthetõ file-k száma.
A munka kezdetén az "Explore" nyomógombot kell használnunk, miután újra jóvá kell hagynunk a letöltés körülményeit. Végül eldönthetjük, hogy csak a website struktúráját akarjuk megjeleníteni vagy egyúttal le is kívánjuk tölteni a kapcsolódó oldalakat és képeket. Munka közben a szoftver kirajzolja a készülõ könyvtárstruktúrát, amibe lokális körülmények között is csupán 5kB/sec körüli sebességgel menti le az adatokat, ami sajnos tovább romlik, ha bonyolódnak az oldalak közötti kereszthivatkozások. Újabb idõveszteség, hogy lefuttatja a szerveroldali programokat, és ezeken elég sokáig "gondolkozik". Bár az eredményt HTML file-ba írja - így például egy Sitemap még hasznos is lehet -, az adatokat feldolgozó programok viszont csak az idõt pazarolják. Ezt elkerülendõ célszerû a szûrõvel kizárni a CGI és a PL kiterjesztéseket. Végülis a program mintegy 60 perc alatt 1117 file-t töltött le 16.5MB-on. A hibátlan off-line böngészésnek csak egy akadálya volt: a beágyazott JavaScriptekben lévõ linkeket nem töltötte le, így néhány oldal hiányzott. Lassúsága mellet nem csinál összesítést, amelybõl például a törött linkek kiszûrhetõek lennének. A fenti apróságokat el is lehetne nézni a programnak, ha nem ez lenne a mezõny egyik legdrágábbja. Az on-line feladatban sem remekelt a program, 45 perc alatt csupán 280 darab file-t töltött le 2MB-on. Az eredeti könyvtárstruktúrát ugyan sikeresen reprodukálta, viszont azokat a kapcsokat, amelyek tartalmazták a szerver teljes domain nevét nem javította ki a lokális útvonalra. Így ha az oldalak szám szerint meg is érkeztek, a helyi böngészés során sok törött linkel és képpel találkozhattunk.

Ecatch

Rendkívül egyszerû beállítási lehetõségek a File/Preferences/Main illetve az Edit/Properties menüpontokban. A munkát végül is a File/New Agent kezdhetjük. A megjelenõ varázslóban tudjuk a leöltési mélységet állítani és még néhány alapvetõ beállítást is itt tehetünk meg. Használnunk kell a Create Address nyomógombot, majd a Connect menüponttal kezdõdhet a letöltés. Ha a mélységet helyesen adtuk meg, a bal oldalon kirajzolódik a webhely struktúrája. A jobb oldali részben sokféle információt jeleníthetünk meg, sõt a program tartalmaz egy beépített böngészõt is. Ez cseles módon alul az on-line címet mutatja, miközben az off-line verziót olvassa be. Letöltésnél az Ecatch egy saját könyvtárfát hoz létre, ami sajnos semmiben sem hasonlít a webhelyen található eredeti struktúrához. A program végül off-line 20 perc alatt 1235 darab file-t kreált több mint 20MB-on, az on-line tesztnél pedig 15 perc alatt 359 file keletkezett 2.1MB-on. Az így elkészült struktúrában nem egyeznek a könyvtárak, a filenevek és az oldalakban lévõ linkek, ezért egy hagyományos böngészõben ez nem olvasható, és az összekuszált oldalnevek miatt az eligazodás is szinte lehetetlen. A off-line böngészés egyetlen lehetõsége, hogy a baloldali struktúra elemein kattintva vagy a programba épített böngészõvel nézegessük a letöltött oldalakat. Ha ez utóbbival meg tudunk barátkozni, az E-catch sebessége miatt igen jó válsztás.

Fetch

A program ingyenes, de a webhelyen kapunk hozzá egy regisztrációs számot miután kitöltöttünk egy oldalt, ahol "indiszkrét" kérdésekkel zaklatnak (végzettség, jövedelem, beosztás, stb…). Esetünkben ezt példányonként minimum kétszer kellet megtenni mire az egy darab regisztrációs szám megérkezett e-mailban. Ingyenessége mellet sok kényelmetlen megoldása van. Például ahhoz, hogy mûködjön meg kell nyitni az Internet Explorert vagy a Navigatort, és arra címre kell irányítani amit le akarunk menteni. Felületén idõnként fizetett hirdetések is megjelennek.
Indulásnál használni kell a Go/Add Webpage menüpontot. Az így keletkezõ folderban jobb-kattintani kell a keletkezett ikonon, és a Properties menüpontban igen gyér beállítások után a Fetch nyomógombbal tölthetjük le az oldalakat. A Fetch több szálon is képes kapcsolódni az oldalakhoz, ennek ellenére a bonyolult struktúrákba, ahol gyakoriak a kereszthivatkozások nagyon belezavarodik, és a szükségesnél lényegesen nagyobb adatmennyiséget tölt le. Emiatt lassú. 20 perc alatt csupán 6 darab file-t hozott létre több mint 30 MB-on. Ezek a file-k hagyományos böngészõvel nem olvashatóak. A Fetch viszont képes használni az Internet Explorer-t arra, hogy off-line megmutassa az oldalakat. A szegényes beállítási lehetõségek mellett még hibája, hogy a kliens oldali scripteket nem elemzi. Az on-line munkával nyolc perc alatt végzett.

HTTRACK

A HTTRACK rövid, és több operációs rendszerre is beszerezhetõ. Ára mindössze 10 dollár. Csupán két dialógusbox az egész szoftver, ahol a lényeg beállítható. Több szálon is képes oldalakat letölteni, és a bonyolult struktúra ellenére is gyors. A többszálúság eredménye, hogy letöltési sebessége 30kB/sec körül van. Teljes egészében képes archiválni a webhely eredeti könyvtárstruktúráját és a file-kat. A program 12 perc alatt 774 darab file-t mintegy 20MB-on töltött le. Ez idõ alatt mindegyik oldalt módosította: beírta saját azonosítóját az oldalak tetejébe. Hibája, hogy a kliensoldali scripteket nem értelmezi. Elõnye hogy file-ba írja a sikeres és sikertelen letöltési kísérleteket, így a törött linkek könnyen felderíthetõek. Egy lépésben több URL címrõl is képes letölteni oldalakat és képeket. Feltétlenül jó vételnek számít, egyszerûsége, sebessége, és szinte hibátlan mûködése miatt. Ezek mellet a mezõny legolcsóbbja, leszámítva az ingyenes Fetch-et.
Az On-line feladatot is profi módon hajtotta végre, 13 perc alatt 133 db file keletkezett 1MB-on, ami hibátlanul volt böngészhetõ utólag is.

NetAttaché Pro

A NetAttché igen komplex szolgáltatásokat nyújt az off-line böngészéshez. Saját webszervert telepít és indít, valamint egy keresõt és egy brief-kibontót tartalmaz. Az Entry/Add Webentry menüponttal tudjuk kezdeni a munkát, majd kattintsunk a Generate Brief nyomógombra. Végül csupán 3 file keletkezett 15MB terjedelemben 15 perc alatt. Az on-line teszt eredménye ugyancsak 3 file 1MB tárhelyen. Van ugyan egy View Brief funkció, de ez nem alkalmas arra, hogy reprodukálja a site eredeti struktúráját. Ehelyett használjuk a Netattaché Extraction Tool segédprogramot. Ezen nincs beállítási lehetõség: a Brief kiválasztása után csak kitömörítés lehetséges. A program fura módon nem reprodukálta az eredeti könyvtárstruktúrát itt sem, hanem egy directory-ba bontotta ki a összes oldalt és képet. Itt ugyan ügyelt arra, hogy a különbözõ könyvtárakban lévõ azonos filenevek ne írják felül egymást, viszont a kibontott oldalakban az eredeti könyvtárstruktúrának megfelelõek a hivatkozások. Emiatt a program csak alkönyvtárakkal nem rendelkezõ webheyek archiválásra alkalmas, különben igen kényelmetlen olvasni az oldalakat a rengeteg törött link miatt. A NetAttaché Pro bonyolultságát tekintve megéri a 40 dolláros árat, viszont a végeredmény tekintetében könnyen találunk olcsóbb és jobb szoftvert erre a feladatra.

Offline Explorer

Az Offline Explorer egyelõre 1.0 Beta verziónál tart, így fizetni sem lehet még érte. A program vélhetõen kinézetében és nevében az Internet Explorer konkurense kíván lenni, funkcionalitása és beállítási lehetõségei is rendkívül jók. Ebben a programban arra is van lehetõség, hogy az oldalba ágyazott scripteket elemezze. Sajnos a Download gomb megnyomása után pár másodperccel 'List index out of bounds' hibaüzenettel leállt a program, így a nagyobbik feladatot nem tudta végrehajtani. Kilépni is csak a Ctrl+Alt+Del gombokkal sikerült belõle. Az on-line letöltésnél a fenti hibaüzenet ugyancsak megjelent, de a háttérben a program lefutott, és 7 perc alatt 170 darab file keletkezett 1.3MB-on. Ez nem volt tökéletes, elõfordultak benne törött linkek és képek, de nagyrészt böngészhetõ volt utólag is.

WebSnake

A WebKígyót gyártó Annawave cég már nem foglalkozik szoftverfejlesztéssel, pedig Gravity nevû hírolvasója az egyik legjobb ilyen típusú program volt. Offline browsere is rendkívül jóra sikerült. Nemcsak webhelyeket képes archiválni, hanem a File/Add Project menüpontjában SiteMap és Keresõ építésére is alkalmas, továbbá képes összegyûjteni egy komplett siteról az e-mail címeket körlevelezés, esetleg spam céljára... Ha archiválni szeretnénk vele, a Mirror Site menüpontot kell használnunk. Jó ötlet, hogy egyetlen gomb bekapcsolásával kérhetõ, ne töltse le a "~" jelet tartalmazó címeket, így webszolgáltatók domain nevérõl anélkül kérhetünk le oldalakat hogy az elõfizetõk dzsungelébe keverednénk. Képes értelmezni a Java és ActiveX scripteket. Bár a projectre vonatkozóan nagyon sok finom-beállítási lehetõségünk van, ezt két menüpontban találjuk: Project/Properties és View/Options. A beállítások elvégzése után használjuk a Snake gombot! Mûködés közben a szemünk elõtt rajzolódik ki a webhely struktúrája, ami pontosan követi az eredetit. 30 dolláros árával lehetne az egyik legjobb választás, hiszen az egyik legtöbbre képes szoftver, de a bonyolult kereszthivatkozásokkal teli webhelyeket olyan lassan tölti le, hogy egy hagyományos böngészõvel hamarabb végezhetünk. Ebben az esetben 60 perc után leállítottuk a tesztet. Ezzel együtt egyszerûbb site-k archiválására kiváló. Nemcsak funkcionalitása nem hagy maga után kívánnivalót, hiszen ha valaha elkészül az archívum az tökéletesen használható, hanem felülete is kellemesen ötletes. On-line szerencsére hamarabb végzett, 15 perc alatt 113 file keletkezett 1.1MB-on. Gyakran felejtett az oldalakban on-line kapcsolódásokat, bár minden oldal és kép megérkezett, igen gyakoriak voltak a törött kapcsok.

WebVCR

A WebVCR mint nevébõl is látszik egy videomagnót próbál meg szimulálni, így például a mentést WebTape-nak nevezi. A munkát az Add Site gombbal lehet kezdeni. A WebTape elkészítésével mindössze 6 perc alatt végzett, de az ezt követõ kicsomagolási feladat leállt egy hibaüzenettel, így azt nem lehetett befejezni. Az on-line munka ugyan befejezõdött, de csak egyetlen hibaüzenetet tartalmazó HTML oldal keletkezett, amibõl azt tudhattuk meg, hogy a szervert nem találta meg a program.

WebWhacker

A teszt másik vesztese a WebWhacker. A beállítások és a Whack gomb megnyomása után után pár másodperccel figyelmeztetés nélkül "elszállt". Mindez elég magas 50 dolláros árral párosult. A böngészõnket is alkalmanként lezárja, illetve elindítja kérdés nélkül. On-line 25 perc alatt 1MB-ot mentett le, de a keletkezõ állomány nem volt alkalmas gondtalan off-line olvasásra.

WebZip

Nemcsak felülete, hanem funkcionalitása is meggyõzõ. Hibátlanul felépíti a webhely eredeti struktúráját, és értelmezi az oldalba ágyazott scripteket. Minden apróság részletesen beállítható, sõt a felület változtatására egy külön funkcióval letölthetõ több elõgyártott séma is. Rendkívül informatív, futás közben szinte minden paraméterrõl egyszerre tájékozódhatunk. 16 szálon képes mûködni, és szabályozható az oldalak és a többi file prioritása. 40 dolláros ára ellenére ez tûnik a legjobb választásnak, mert nem lassabb lényegesen az átlagnál, finombeállításai viszont messze felülmúlják az egyszerûbb szoftverek lehetõségeit. A letöltés paraméterei file-ba menthetõek, így az késõbb bármikor megismételhetõ. Ez volt az egyetlen, amelyik elfogadható idõn belül hibátlanul archiválta le a bonyolult struktúrájú webhelyet. On-line 15 perc alatt végzett, 256 file keletkezett 2MB-on. Menet közben tájékoztat a törött linkekrõl is, grafikon ábrázolja a letöltési sebesség alakulását, százalékosan jelzi a már letöltött adatmennyiséget. A letöltött oldalakat kérésre "röptében" tömöríti helymegtakarítás céljából. Az Internet Explorer-t mint saját beépített böngészõjét képes használni. A programból kilépve az archívum bármivel hibamentesen böngészhetõ, szolgáltatás-választéka semmilyen kívánnivalót nem hagy maga után. Ez volt az egyetlen olyan program, amil maximális elégedettséget biztosított felhasználói oldalról.

WingFlyer

Rendkívül egyszerû felület és 16 bites állományrendszer jellemzi. A 32 bites verzió 25 dollárba kerül, igaz sehogy sem sikerült kitalálni, hogyan lehet megrendelni, letölteni vagy legalább upgradelni. Képes elmenteni a webhelyet a site teljes reprodukálásával, de ekkor beleír a linkekbe, és ezek a beírások hibákat okoznak. Ha ezt elkerülendõ nem kérjük a könyvtárak létrehozását, akkor üres directory-kat kreál a program, és egy helyre menti el az összes oldalt és képet. Ebben az esetben kiveszi a hivatkozások útvonalából a könyvtárak neveit, így ez a módszer tulajdonképpen egész jól használható. Beállítási lehetõségei viszont eléggé korlátozottak, nem is mondható túl gyorsnak. A hosszú állománynevek kezelésének hiánya ugyancsak elégedetlenné teheti a felhasználót. Nem értelmezi az oldalba ágyazott scripteket és mûködési biztonsága sem száz százalékos. Az on-line tesztben csak a nyitóoldalt sikerült archiválni.

Grab-a-Site

Ez a BlueSquirrel másik off-line böngészõje. 70 dolláros árával messze a legdrágább a mezõnyben. A WebWhackerrel ellentétben ez a program legalább teljes egészében végrehajtotta a feladatot, kivéve a JavaScriptekbe ágyazott hivatkozásokat. Gyorsan végzett, teljes egészében reprodukálta a site teljes struktúráját. Beállítási lehetõségei nagyon szerények, tulajdonképpen egy egyszerû dialógusboxban elfér minden, ezen kívül csak kizáró-szûrõket tudunk alkalmazni. A törött linkeket nem sorolja fel sehol, ehelyett a hiányzó HTML oldalakat is létrehozza, benne egy szokásos Error 404 hibaüzenettel. Az on-line tesztet hibálanul, 30 percen belül hajtotta végre.

Teleport Pro

Ez a böngészõ volt a leggyorsabb, öt perc alatt végzett az elsõ feladattal, amit egy igen egyszerû dialógusboxban lehet finom hangolni. Igaz, közben megjelent egy programhibára utaló üzenet, de a Teleport ettõl függetlenül végig lefutott. Amikor befejezte csak a reset gombbal lehetett újraindítani a gépet. Így mûködési biztonsága nem a legmeggyõzõbb. A problémák ellenére a feladatot végrehajtotta, hibátlanul reprodukálta a site struktúráját, nagyon részletes naplózást készített, valamint a hiányzó linkek és oldalak helyére saját hibaüzeneteket kreált. A szerveroldali programok futását úgy oldotta meg, hogy a program URL címébe beírta a teljes domain nevet, így ha on-line kapcsolódunk az ûrlapok gyakorlatilag off-line kitöltve is funkcionálnak. Egyetlen hiányossága a kliensoldali Javascriptek értelmezése, de ezt kárpótolja hihetetlen sebessége. On-line 15 perc alatt 399 file-t hozott létre 3.5MB-on, ami hibátlanul böngészhetõ volt utólag is.

SurfSaver

Ez a program beépül a Netscape Communicator és az Internet Explorer böngészõkbe. Az egyikben a Personal Toolbar részévé válik, a másikban a jobb egérgomb segítségével válik elérhetõvé. Az éppen aktuális oldalt képes lementeni minden összetevõjével együtt, illetve szûrõk is rendelkezésre állnak. Hibátlanul kezeli a keretrendszert is. Egyéni struktúrát hoz létre a file-k tárolására, így vigyázni kell az azonos filenevek felülírására. Ára 30 dollár, ami ahhoz képest sok, hogy a teljes site-t nem képes archiválni. Ráadásul a fenti két böngészõ legújabb verziója ezt a funkciót már ingyen is képes végrehajtani, ha mentésnél a CTRL billentyûket lenyomva tarjuk.

WebMirror

A WebMirror magyar fejlesztés. Perl nyelvû forráskódjával és teljes dokumenációjával együtt letölhetõ a http://www.isys.hu/c/verhas/progs/perl/webmirror/ címrõl. Ez a verzió azoknak ajánlható, akik UNIX vagy Windows NT alatt akarnak archiválni vagy tükrözni egy website-ot, különösen ajánlott olyan helyekre, ahol egy adatbázis alapú alkalmazás van és a weblapokat dinamikusan generálja a szerver például egy web konferencia alkalmával. A linkek mentén végig lehet menni az információn (tehát nem kell hozzá egy form-ba keresést beírni, "csak" kattintani szükséges) és egy off-line CD-t is könnyen össze lehet állítani vele. A tükrözõ alkalmazás kitûnõen leképzi a dinamikus oldalakat statikus oldalakká.

Összefoglalás…

Mindent összevetve, két termék üzembe helyezését érdemes megfontolni: Windows alá a WebZip barátságos és informatív felületével, minden tekintetben hibátlan mûködésével és sokoldalúságával jó választás. Ugyancsak Windows alá vagy más operációs rendszereknél a HTTRACK, amely sebességével és ugyancsak tökéletes mûködésével tûnt ki a mezõnybõl, 10 dolláros árával a WebZip negyedébe kerül. Ezért az árért csupán azt az apróságot kell elviselnünk, hogy a szerveroldali scriptekbe ágyazott hivatkozásokat nem tölti le a program. Az off-line böngészõk népszerûsége nyugaton azért növekszik, mert idõt lehet vele megspórolni. Itthon pénzt is takaríthatunk meg velük.

Nincsenek megjegyzések:

Megjegyzés küldése