Webseite inhalt kopieren und abspeichern?
Hey Leute ich würde gerne mal wissen wie ich es am einfachsten machen kann Inhalte aus mehreren seiten automatisch abzuspeichern in txt oder so.
und zwar geht es um eine liste die aber auf 1000 seiten verteilt ist.
und ich würde gerne jeden aus der liste untereinander haben.
da es sehr zeit aufwendig wäre jede Seite einzeln den Inhalt zu kopieren würd ich gern wissen ob es da so Tools gibt die mir helfen könnten.
die Seite ist in PHP und jede Seite wird page=1,page=2 usw in der Adresse angezeigt.
MFG
Dieter
Antwort schreiben
Antwort 1 von Fassy91 vom 12.01.2020, 19:16 Options
ja gibt es sogennante sitegrabber.
Die kopieren den inhalt des Webservers auf die Festplatte.
mfg
Fabian
Antwort 2 von Dieter2008 vom 14.01.2020, 19:53 Options
ich will aber nur die daten in der mit im content nicht die gesamte seite
Antwort 3 von Nessus vom 15.01.2020, 00:23 Options
Hi,
damit sollte es gehen:
http://www.m-software.de/snoopy.php
Vorrausgesetzt du kennst dich in PHP aus. Mit Snoopy liest du die Seiten ein, und kannst die Daten in eine DB legen, in ein ASCII-File kopieren uvm.
HTH
Nessus