ich habe mir ein kleines Script gebaut um denn Dateinamen bei Share-online.biz an hand des Downloadlinks auszulesen.
Das klappt auch wenn ich nur einen Link benutze. Wenn ich das Script jetzt aber in einer Whileschleife laufen lasse und es immer mit jeweils einem neuen Link füttere bekomme ich von fopen die meldung das die datei oder das verzeichniss nichgefunden wurde.
Dachte erst das es auf der hosterseite vieleicht etwas dauert bis die daten verfügbar sind aber selbst mit einem sleep ändert sich daran nix.
wie gesagt wenn nur ein link angegeben wird gehts so wies oben steht aber sobald ein 2ter Link hinzukommt meckert fopen und daraufhin geht der rest natürlich auch nicht mehr.
naja über die url kannste an ?url=blabla ja nur eine url anhängen, wenn du mehrere urls angeben willst, dann musst du das mit einem Array machen beispiel.de/?url[]=url1&url[]=url2
und dann
foreach($_GET['url'] as $url)
{
hier mit $url irgendwas machen
}
habs atwas anders aufgebaut aber im endeffekt mach ich nix anderes als die urls die in den einzelnen arrays stehen die ich vorher aus nem formular auslese über die whileschleife abzuarbeiten, wenn ich die urls direkt in die db schreibe klappt das auch aber ich bräuchte noch den dateinamen und den bekomme ich nur wenn ich beim hoster auf die seite gehe und die dort auslese.