Sie sind nicht angemeldet.

  • Anmelden

1

17.08.2006, 22:32

Webverzeichnis durchsuchen/haken

Hey Cracks,

folgende, für mich unlösbare Aufgabe:

Gegeben ist folgende Struktur:
http:\\musterdomain\musterverzeichnis\musterdatei.jpg

Gebe ich diese URL in meinen Browser ein, wir mir ein Foto angezeigt, ohne irgendwelche Benutzer- oder PW-Abfragen. Der Name von Musterdatei hat eine gewisse Struktur:
laufendeNummer_Photo_beliebigeNummer.jpg

Durch gezieltes probieren habe ich weitere Dateien musterdatei2.jpg etc. in dem Ordenr gefunden, die ich ebenfalls problemlos ansehen/downloaden kann.

Der Versuch das Verzeichnis direkt anzuspringen -> http:\\musterdomain\musterverzeichnis\ scheitert mit Fehlermeldung 403 (glaube ich).
Habe z.B. mit Flashget experimentiert und weitere Dateien gefunden. Bei Flashget kann man an einer Stelle der URL eine Wildcard eingeben http:\\musterdomain\musterverzeichnis\must(*)datei.jpg und dann zum Beispiel sagen "ersetze (*) durch: von 001 bis 999" danach werden 1000 Abrfagen abgesetzt, und wenn eine den exakten Dateinamen trifft, diese heruntergeladen.
Daraus folgt: ich kann alle Dateien herunterladen, deren Namen ich kenne.

Nun kann man sich bei einem ca 15 Zeichen langen Dateinamen (Zahlen, Buchstaben, Sonderzeichen) shr leicht ausrechnen, wie viele Möglichkeiten man ausprobieren müßte, um alle möglichen Dateinamen zu finden. Weiterhin müsste man für jeden potentiell möglichen Namen eine Abfrage an den Webserver schicken. Fazit: unmöglich

Daraus ergibt sich nun folgende Frage: wie komme ich zu genau den Dateinamen, die es unterhalb von http:\\musterdomain\musterverzeichnis\ gibt? Das runterladen ist ja dann ein Kinderspiel.

Hat jemand sowas schon erfolgreich gemacht bzw wenigstens nen Denkansatz? Bin für jede Hilfe dankbar!!!

Gruß Hendor

2

17.08.2006, 22:58

Wenn jemand das DirectoryIndex ausschaltet, dann wird das wohl schon seinen Grund haben. Ansonsten bleibt wirklich nix außer raten (wie soll sowas sonst auch gehen?), wobei ich nicht derjenige sein will, der die Traffickosten für dich bezahlt.

3

17.08.2006, 23:20

hmmm... dsl flat... keine kosten ;)

es muß gehen irgendwie... es gibt ein sehr geiles progi "httrack", was genau dafür entwickelt ist... bin abe rzu doof es intuitiv zu bedienen und mit der englischen benutzeranleitung hab ichs nicht so leider :(

Beiträge: 735

Wohnort: Baden Württemberg

Beruf: GER

  • Nachricht senden

4

18.08.2006, 00:20

er meint die kosten die dem server/site betreiber entstehen :rolleyes:

5

18.08.2006, 00:27

Solche Programme, die rekursiv versuchen eine Site zu spiegeln durchsuchen die HTML-Dateien, schauen sich die ganzen Verweise (Bilder, Links) an und laden sich die Ressourcen von diesen Verweisen runter, schauen, ob darunter mehr HTML-Dateien sind und durchsuchen auch sie. Ressourcen, die von dort aus nicht verwiesen werden, werden logischerweise nicht runtergeladen, auch wenn sie im Ordner sind. Prominentestes Tool dieser Sorte ist wget.

6

18.08.2006, 15:55

es gibt nur bilder/filme dort... keine html dateien. wget machts auch nicht, aber wie gesagt müsste es mit dem "httrack" gehen...wenn ich bloß die beschreibung verstehen würde :(