Hat dir diese Antwort geholfen?
Hey zzz,
Danke für deine Antwort.
Echt? Da gibt es KEIN Tool, was das kann? Es gibt doch URL-Sync-Tools wie Sand am Meer... das zu implementieren könnte ja ganz genau so funktionieren - einfach nur anstelle alles lokal zu speichern, es drucken.
Übrigens... das Tool dazu zu bringen Verlinkungen zu erkennen ist einfacher, als einem Kind den Lutscher zu klauen, ohne klebrige Hände zu bekommen, denn in jedem HTML-Dokument gibt es ja Key-Tokens... einfach das Dokument durchsuchen und jeden "href"-Tag oder "<a>...</a>"-Tag als Link erkennen. Das ist eine Möglichkeit. Man könnte aber auch von der URL-Ausgehen und einfach alle Verzeichnisse ab einem bestimmten Punkt aufwärts und abwärts nach *.html-Dateien absuchen und diese dann drucken. Diese Methode würde sich besonders, wenn etwas schon lokal gespeichert ist und man Zugriffsrechte auf jeden Ordner hat, anbieten.
Das mit der Reihenfolge erübrigt sich dann auch... in beiden Ansätzen oben sucht und hoffentlich findet man ja Links. Diese kann man dann mega einfach in einen beliebigen Baum einsortieren und dann einfach Tiefensuche-Mäßig die Blätter abarbeiten bis zu einer gewissen Tiefe - also von einem Anfangsdokument aus die verlinkten Dokumente nach Links durchsuchen und dessen verlinkten Dokumente dann auch... und so weiter. Rekusion eben, mit der Abbruchbedingung, dass man nach einer gewissen Verlinkungstiefe aufhört.
Natürlich müsste man noch ne Liste führen, welche Dateien schon gedruckt wurden. Wenn nämlich Datei A und Datai B beide auf Datei C zeigen, dann würde die ja zweimal ausgedruckt werden...
Tja - dann muss ich mir das wohl selber schreibseln. D00f.
Danke aber auf jeden Fall für deine Hilfe! Wenn sonst noch wer ne Idee oder nen Tipp hat - immer her damit...
lg
Basti