Форум: "Потрепаться";
Текущий архив: 2005.03.13;
Скачать: [xml.tar.bz2];
ВнизPHP-качалка сайтов Найти похожие ветки
← →
kaZaNoVa © (2005-02-20 15:13) [0]Все знают удобные "качалки" сайтов, такое как Teleport, а существуют ли подобные программы ввиде PHP-скриптов?
Цель - экономия локального траффика, хочу всё скачать на сервере и потом заархивировать и тогда уж скачивать)
Кто-нить видел подобные скрипты?
← →
Anonim (2005-02-20 16:01) [1]Думаю самому не сложно написать
fopen(...,"r") - открываешь файл для скачивания
fopen(...,"w") - открываешь файл на своем сервере для записи
... копируешь содержание одного в другой
потом после копирования архивируешь...
← →
kaZaNoVa © (2005-02-20 16:19) [2]Anonim (20.02.05 16:01) [1]
я так уже сделал, но нужно ещё скачивать по ссылкам ..
анализировать всё . и т.д.
← →
VictorT © (2005-02-20 17:04) [3]Не знаю, я скриптов готовых не видел.
Есть такой сайтик http://zipsites.ru/ , на котором выкладываются скачанные архивы сайтов, не знаю, может быть они таким способом и пользуются. Может, с ними пообщаться...
← →
VictorT © (2005-02-20 17:08) [4]Ага, прочитал на этом сайте, клиентской качалкой они пользуются.
← →
programania © (2005-02-21 02:59) [5]>kaZaNoVa
>Кто-нить видел подобные скрипты?
В теме о экономии трафика http://delphimaster.net/view/14-1108800498/
есть пример функции,
добавляющей в $d содержимое по ссылкам из $s заданным в параметрах
например можно попробовать:
$d="";
teg("<a ","href="", ".htm");
teg("<img ","src="", ".gif");
потом
$s=$d;
и повторять пока весь интернет не скачаешь.
>хочу всё скачать на сервере
все скачивать не глядя не удобно,
можно накачать много лишнего.
Хорошо бы отдавать клиенту только то, что изменилось
с прошлого запроса, но на php этого быстро не сделать.
По моему лучше все скачанное хранить на диске в тех же gz
и если уже есть выдавать с диска, а в интернет лезть
только если нет или нажато "Обновить"
т.е. сделать типа offLine browser и паковщика трафика одновременно.
Примерно так я и делаю уже 3 дня и что получается можно посмотреть в
http://programania.com/browser.zip 180kb
пока только для delphimaster
>Anonim
>fopen(...,"r") - открываешь файл для скачивания
Часто нужен не файл, а ответ сервера,
а файл бывает вообще неизвестен или недоступен.
← →
wl © (2005-02-21 11:38) [6]извините за глупый вопрос.
допустим я открыл страничку в поток, и мне нужно достичь, скажем, 1000-го байта в этом потоке, потому что я знаю что там находится нужная мне ссылка (которая может часто меняться). обязательно ли скачивать все 1000 байтов, или можно сделать какой-нибудь skip?
вопрос безотносительно конкретного языка.
← →
kaZaNoVa © (2005-02-21 16:44) [7]wl © (21.02.05 11:38) [6]
иногда можно (Partial Content) - как-то так, типа докачки ...
Страницы: 1 вся ветка
Форум: "Потрепаться";
Текущий архив: 2005.03.13;
Скачать: [xml.tar.bz2];
Память: 0.47 MB
Время: 0.042 c