[Ищу] Очень нужен скрипт для слива сайтов с web.archive.org

Тема в разделе "SEO Скрипты", создана пользователем riaba, 13 апр 2010.

  1. maxwelhelp

    maxwelhelp Создатель

    Регистр.:
    14 июн 2014
    Сообщения:
    10
    Симпатии:
    5
    для парсинга вебархива есть хороший сервис r-tools.org стоит копейки, сайты выгружает в html

    при регистрации там страниц 100 можно скачать бессплатно

    У меня есть виртуальная машина (VMware) с парсером вебархива, но я бы ее хотел продать за символическую сумму 200 руб. Желающие пишите в лс.

    Она значительно лучше чем r-tools.org, поскольку можно сразу все снимки (за все года) сайта скачать, или только необходимые снимки, так же можно весь сайт скачать или с определенной категории.

    скачивает все в html (с картинками).

    В подарок расскажу как массово редактировать html код, например заменить название сайта, контакты и.т.д...
     
    Последнее редактирование модератором: 1 июл 2016
  2. GDRF

    GDRF Писатель

    Регистр.:
    10 июл 2016
    Сообщения:
    10
    Симпатии:
    1
    Написал скрипт на ruby. Кому интересно - бесплатно вышлю и расскажу, как пользоваться! Пишите в ЛС.
     
  3. Iwashka

    Iwashka Создатель

    Регистр.:
    13 авг 2015
    Сообщения:
    8
    Симпатии:
    0
    На раби очень неизведанно; на РНР есть аналог?
     
  4. Limes

    Limes Создатель

    Регистр.:
    16 июл 2016
    Сообщения:
    19
    Симпатии:
    8
    Я вчера пробовал выкачать SiteCloner. Грабит отлично. Правда SiteCloner серверный скрипт
     
  5. videoinspector

    videoinspector Писатель

    Регистр.:
    15 мар 2013
    Сообщения:
    8
    Симпатии:
    0
    А есть ли какой смысл вслепую парсить с вебархива?
     
  6. f3int

    f3int Создатель

    Регистр.:
    19 июл 2016
    Сообщения:
    28
    Симпатии:
    10
    Без сервера никак не пойдёт? Или если не большие сайты в несколько страниц вытянуть, то можно и без сервера обойтись?
     
  7. Limes

    Limes Создатель

    Регистр.:
    16 июл 2016
    Сообщения:
    19
    Симпатии:
    8
    Нет к сожалению. Только так
     
  8. f3int

    f3int Создатель

    Регистр.:
    19 июл 2016
    Сообщения:
    28
    Симпатии:
    10
    Фигово очень. Спасибо за ответ.

    А менее требовательной софтины или скрипт не знаете? Телепортом пробовал, но что-то не получается им нормально сделать всё или то я так пробовал...
     
  9. Pimpleks

    Pimpleks Создатель

    Регистр.:
    4 июн 2013
    Сообщения:
    22
    Симпатии:
    8
    есть такая софтина, называется wget. Скачай, помести на диск С в корень, потом вызови командную строку(WIN+R) и пропиши что то типа wget -r -k -l 7 -p -E -nc -U YandexBot http://domain.com
    • -r — рекурсивное скачивание страниц сайта
    • -k — преобразовывать ссылки в html коде для локального просмотра сайта
    • -p — скачивать все файлы используемые при отображении страниц сайта - картинки/стили/скрипты и т.д.
    • -l — уровень вложенности страниц, насколько wget далеко будет парсить
    • -E — добавлять к скачанным страницам .html
    • -nc — при использовании этого параметра, скачанные до этого файлы не будут перезаписаны. используется если вам нужно докачать сайт
    • -U — задать юзерагент, часто на сайтах запрещается доступ для wget, таким образом мы обходим этот запрет
     
    f3int нравится это.
  10. 2009bes

    2009bes Писатель

    Регистр.:
    14 май 2013
    Сообщения:
    4
    Симпатии:
    3
    софтина хорошая,жаль не все сайты тянет. Простой сайт на НТМЛ- пошол на ура, правда и шаблон одного хостинг-сервиса удалось заполучить