Форум: "Потрепаться";
Текущий архив: 2005.11.13;
Скачать: [xml.tar.bz2];
ВнизЗагрузчик сайтов Найти похожие ветки
← →
Gero © (2005-10-21 22:39) [0]Посоветуйте пожалуйста загрузчик сайтов (так чтобы сайт целиком сохранял, страницы по ссылкам, с картинками и пр.), желательно бесплатный.
Вобще кто чем пользуется для этих целей?
← →
LordOfRock © (2005-10-21 22:42) [1]Teleport Pro. Только он платный. А работает отлично. Минимум интерфейса, максимум возможностей.
← →
Gero © (2005-10-21 22:46) [2]
> Teleport Pro
Помню, был у меня когда-то, чем-то очень не понравился, как-то неправильно сохранял, то ли все в одну папку кидал, то ли что-то в этом роде. Я его и снес. Но давно было, плохо уже помню в чем была причина. Может версия какая-то старая была.
Что платный это плохо.
← →
GuAV © (2005-10-21 22:48) [3]Offline Explorer Pro очень хорош, вот только его лишь на 30 дней хватает.
← →
LordOfRock © (2005-10-21 22:54) [4]> [2] Gero © (21.10.05 22:46)
1) Если сайт написан на PHP - все получаемые хтмл-ки кидает в одну папку (куда ты ему скажешь). Ессно, что почти для всех этих файлов нужны одни и те же картинки. Они тоже в этой папке. После скачивания достаточно найти в этой куче фалов index.php.html и создать для него ярлык где-нить. И всё работает.
2) Можно скачать полностью структуру сайта, со всеми папками, картинками, архивами. Вообщем со всем, что есть в папке сайта.
3) Можно поискать по сайту файлы определённого типа и качать только их.
4) Чего-то ещё :-)
← →
Agent13 © (2005-10-21 22:55) [5]
> Offline Explorer Pro очень хорош, вот только его лишь на
> 30 дней хватает.
Ну это в принципе поправимо ;) но если хочется бесплатный, тогда могу посоветовать только wget. Правда у него есть серьёзный минус - он консольный и придётся внимательно читать хелп, чтобы разобраться с настройками.
← →
Piter © (2005-10-21 22:58) [6]Agent13 © (21.10.05 22:55) [5]
только wget
с каких это пор wget научился выкачивать сайты...
← →
Agent13 © (2005-10-21 23:01) [7]
> с каких это пор wget научился выкачивать сайты...
А что он по твоему делает?
← →
wicked © (2005-10-21 23:10) [8]
> > с каких это пор wget научился выкачивать сайты...
>
> А что он по твоему делает?
афаик качает файлы с сайта.... это задача намного более простая, чем задача "выкачать сайт"....
← →
wicked © (2005-10-21 23:13) [9]бгы.... задачка в голову пришла....
с помощью этого
http://regexpstudio.com/
и этого
http://curl.haxx.se
написать на делфи свою качалку сайтов.... :)
единственная пока обозримая проблема - из каких тегов линки выпаршивать...
← →
Agent13 © (2005-10-21 23:18) [10]
> афаик качает файлы с сайта.... это задача намного более
> простая, чем задача "выкачать сайт"....
Не совсем въехал - что конкретно жизненно важного не умеет wget, что умеет тот же Offline Explorer или Teleport?
← →
wicked © (2005-10-21 23:20) [11]> Agent13 © (21.10.05 23:18) [10]
он умеет, цицирую себя же,
> линки выпаршивать...
из качаемых файлов....
в продолжение
> wicked © (21.10.05 23:13) [9]
для продвинутых - разбирать определенные типы файлов, находить линки и качать еще и те файлы.... навроде скачивания флешовых сайтов....
← →
Agent13 © (2005-10-21 23:28) [12]
> разбирать определенные типы файлов, находить линки и качать
> еще и те файлы.... навроде скачивания флешовых сайтов...
> .
Вот насчёт флешовых не скажу, а обычные сайты wget запросто берёт со всеми линками до указанной глубины, конвертирует их для локального просмотра и пр. Если этого мало, то сомневаюсь, что удастся найти что-то бесплатное.
← →
wicked © (2005-10-21 23:29) [13]> Agent13 © (21.10.05 23:28) [12]
> Вот насчёт флешовых не скажу, а обычные сайты wget запросто
> берёт со всеми линками до указанной глубины, конвертирует
> их для локального просмотра и пр. Если этого мало, то сомневаюсь,
> что удастся найти что-то бесплатное.
хммм.... не знал.... запишем в таск-лист для освоения....
← →
Иван Шихалев © (2005-10-22 00:37) [14]Бесплатный, довольно удобный — http://freedownloadmanager.org/
← →
SergP © (2005-10-22 05:18) [15]
> Teleport Pro. Только он платный.
У незарегистрированого есть только одно ограничение. Нельзя закачивать проэкт с более чем 500 файлами...
Но (да простят меня модераторы) в сети без проблем можно найти кряк.
← →
Труп Васи Доброго © (2005-10-22 07:18) [16]Одно время пользовал Webcopier. Нареканий не было, насчёт бесплатности не помню, но разве это проблема?
← →
Gero © (2005-10-22 10:58) [17]
> Иван Шихалев © (22.10.05 00:37)
> Бесплатный, довольно удобный — http://freedownloadmanager.org/
Спасибо, хорошая программа. На нем и остановился.
Труп Васи Доброго © (22.10.05 07:18)
> насчёт бесплатности не помню, но разве это проблема?
Да, это проблема.
Всем отвечавшим спасибо.
Страницы: 1 вся ветка
Форум: "Потрепаться";
Текущий архив: 2005.11.13;
Скачать: [xml.tar.bz2];
Память: 0.48 MB
Время: 0.04 c