IT-Academy Logo
Sign Up Login Help
Home - Betriebssysteme - Linux - Anwendungssoftware - Das Kommando wget



Das Kommando wget

wget zum downloaden von webinhalten wird vorgestellt...


Autor: Franz Schaefer (mond)
Datum: 23-01-2002, 19:32:17
Referenzen: man wget
Schwierigkeit: Anfänger
Ansichten: 5619x
Rating: 4 (1x bewertet)

Hinweis:

Für den hier dargestellte Inhalt ist nicht der Betreiber der Plattform, sondern der jeweilige Autor verantwortlich.
Falls Sie Missbrauch vermuten, bitten wir Sie, uns unter missbrauch@it-academy.cc zu kontaktieren.

[Druckansicht] [Als E-Mail senden] [Kommentar verfassen]



Übersicht

heute einen kleinen einfachen nuetzlichen befehl: wget

wget steht fuer "www get" und dient zum herunterladen von files aus dem web:

wget http://ars.userfriendly.org/cartoons/?id=20000213

laedt dir z.b. das ein bild aus dem web (bilder von der kommandline anschaun geht z.b.: mit dem programm xli oder xv und als argument das bild das du sehen willst)

wget http://mond.at laedt dir die startseite der mondbasis.

du kannstst auch ftp url angeben:

z.b:

wget ftp://ftp.at.debian.org/debian/doc/FAQ/debian-faq.txt.gz

wenn du hinter einer firewall sitzt ist es eventuell notwendig den switch:

wget --passive-ftp ftp://....

anzugeben

also ueberall wo man nur eine url bekommt wo man sich was herunterladen kann und nicht extra einen webbrowser starten will ist wget recht praktisch.

wget kann auch ganze websites rekursiv kopieren.

das koennen natuerlich sehr viele daten sein.

z.b.:

wget -r http://irgend.wo.at/irgenwas/

laed alles aus diesem verzeichniss und allen unterverzeichnissen..

das ergebniss wird in einem neu angelten unterverzeichniss lokal abgespeichert das den namen des hosts bekommt (hier z.b. irgend.wo.at )

EXERCISES:

verwende das wget kommando um dir eine kopie einer kleinen website zu machen.

_______________________________________________
CD ist ein service von SILVER SERVER
der inhalt unterliegt der GFDL


paedubucher
Professonial
Beitrag vom:
22-10-2006, 13:35:20

Tipp

wget -r -k [URL]

So erhält man das ganze Verzeichnis mit allen Daten (rekursiv - wurde ja bereits geschrieben). Die Option -k passt dann die Links so an, dass man sich die ganze Seite bequem offline durchsehen kann. Ist ganz hilfreich, wenn man sich eine grössere Tutorial-Page herunterladen will und danach irgendwo durchschauen will, wo man keinen Internetanschluss hat.

-----------------------------------------------------


[back to top]



Userdaten
User nicht eingeloggt

Gesamtranking
Werbung
Datenbankstand
Autoren:04503
Artikel:00815
Glossar:04116
News:13565
Userbeiträge:16551
Queueeinträge:06236
News Umfrage
Ihre Anforderungen an ein Online-Zeiterfassungs-Produkt?
Mobile Nutzung möglich (Ipone, Android)
Externe API Schnittstelle/Plugins dritter
Zeiterfassung meiner Mitarbeiter
Exportieren in CSV/XLS
Siehe Kommentar



[Results] | [Archiv] Votes: 1137
Comments: 0