Hallöchen alle miteinander,
ich versuche mich mal wieder an einem kleinen Skript um meine und auch andere Webseiten von mir zu kontrollieren. Ich will quasi (ich hoffe das geht mit wget), daß mir eine Webseite durchsucht wird, aber nicht die Dateien herunter geladen werden sondern nur der in einer Page hinterlegte Link zu einem Bild (jpg, jpeg, png und gif) in einer Textdatei gesammelt werden.
Wenn ich also http://meine-seite.de/index.html angebe soll mir wget anschliessend alle in dieser Seite vorkommenden Links die auf ein Bild (mit den entsprechenden Endungen) vorkommen in eine Textdatei legen, ohne diese allerdings herunter zu laden. Ist dies mit wget machbar? Optimal wäre es jetzt noch, wenn wget in der Lage wäre, wie eine Art Webspider sich durch die in der index.html verlinkten Seiten, die ebenfalls auf meine-seite.de liegen, zu kramen um dort ebenfalls die Links zu den Bildern zu "sammeln".
mfg Maddin
kruemeltee (449) 5x Beste Antwort 6x "Danke"
|