Главная страница
    Top.Mail.Ru    Яндекс.Метрика
Форум: "Потрепаться";
Текущий архив: 2005.03.13;
Скачать: [xml.tar.bz2];

Вниз

PHP-качалка сайтов   Найти похожие ветки 

 
kaZaNoVa ©   (2005-02-20 15:13) [0]

Все знают удобные "качалки"  сайтов, такое как Teleport, а существуют ли подобные программы ввиде PHP-скриптов?
Цель - экономия локального траффика, хочу всё скачать на сервере и потом заархивировать и тогда уж скачивать)

Кто-нить видел подобные скрипты?


 
Anonim   (2005-02-20 16:01) [1]

Думаю самому не сложно написать
fopen(...,"r") - открываешь файл для скачивания
fopen(...,"w") - открываешь файл на своем сервере для записи
... копируешь содержание одного в другой

потом после копирования архивируешь...


 
kaZaNoVa ©   (2005-02-20 16:19) [2]

Anonim   (20.02.05 16:01) [1]
я так уже сделал, но нужно ещё скачивать по ссылкам ..

анализировать всё .  и т.д.


 
VictorT ©   (2005-02-20 17:04) [3]

Не знаю, я скриптов готовых не видел.
Есть такой сайтик http://zipsites.ru/ , на котором выкладываются скачанные архивы сайтов, не знаю, может быть они таким способом и пользуются. Может, с ними пообщаться...


 
VictorT ©   (2005-02-20 17:08) [4]

Ага, прочитал на этом сайте, клиентской качалкой они пользуются.


 
programania ©   (2005-02-21 02:59) [5]

>kaZaNoVa
>Кто-нить видел подобные скрипты?

В теме о экономии трафика http://delphimaster.net/view/14-1108800498/
есть пример функции,
добавляющей в $d содержимое по ссылкам из $s заданным в параметрах
например можно попробовать:
$d="";
teg("<a ","href="", ".htm");
teg("<img ","src="", ".gif");
потом
$s=$d;
и повторять пока весь интернет не скачаешь.

>хочу всё скачать на сервере
все скачивать не глядя не удобно,
можно накачать много лишнего.
Хорошо бы отдавать клиенту только то, что изменилось
с прошлого запроса, но на php этого быстро не сделать.

По моему лучше все скачанное хранить на диске в тех же gz
и если уже есть выдавать с диска, а в интернет лезть
только если нет или нажато "Обновить"
т.е. сделать типа offLine browser и паковщика трафика одновременно.
Примерно так я и делаю уже 3 дня и что получается можно посмотреть в
http://programania.com/browser.zip  180kb
пока только для delphimaster

>Anonim
>fopen(...,"r") - открываешь файл для скачивания
Часто нужен не файл, а ответ сервера,
а файл бывает вообще неизвестен или недоступен.


 
wl ©   (2005-02-21 11:38) [6]

извините за глупый вопрос.
допустим я открыл страничку в поток, и мне нужно достичь, скажем, 1000-го байта в этом потоке, потому что я знаю что там находится нужная мне ссылка (которая может часто меняться). обязательно ли скачивать все 1000 байтов, или можно сделать какой-нибудь skip?
вопрос безотносительно конкретного языка.


 
kaZaNoVa ©   (2005-02-21 16:44) [7]

wl ©   (21.02.05 11:38) [6]
иногда можно (Partial Content) - как-то так, типа докачки ...



Страницы: 1 вся ветка

Форум: "Потрепаться";
Текущий архив: 2005.03.13;
Скачать: [xml.tar.bz2];

Наверх




Память: 0.47 MB
Время: 0.042 c
6-1104808568
Трям
2005-01-04 06:16
2005.03.13
Железо удалённого компьютера


8-1101141268
Lisii
2004-11-22 19:34
2005.03.13
OpenGL


1-1109248438
evg00
2005-02-24 15:33
2005.03.13
DBGrid


3-1108102236
O.O
2005-02-11 09:10
2005.03.13
Принудительная запись кэш BDE на диск


1-1109362370
Qwatrbe4
2005-02-25 23:12
2005.03.13
Удаленное администратирование





Afrikaans Albanian Arabic Armenian Azerbaijani Basque Belarusian Bulgarian Catalan Chinese (Simplified) Chinese (Traditional) Croatian Czech Danish Dutch English Estonian Filipino Finnish French
Galician Georgian German Greek Haitian Creole Hebrew Hindi Hungarian Icelandic Indonesian Irish Italian Japanese Korean Latvian Lithuanian Macedonian Malay Maltese Norwegian
Persian Polish Portuguese Romanian Russian Serbian Slovak Slovenian Spanish Swahili Swedish Thai Turkish Ukrainian Urdu Vietnamese Welsh Yiddish Bengali Bosnian
Cebuano Esperanto Gujarati Hausa Hmong Igbo Javanese Kannada Khmer Lao Latin Maori Marathi Mongolian Nepali Punjabi Somali Tamil Telugu Yoruba
Zulu
Английский Французский Немецкий Итальянский Португальский Русский Испанский