Массовое скачивание HTML страниц

Тема в разделе "Решение различных задач по парсингу", создана пользователем vladuwka90, 24 дек 2020.

  1. vladuwka90

    vladuwka90 New Member Пользователи

    Регистрация:
    24 дек 2020
    Сообщения:
    3
    Город:
    Караганда
    Добрый день.
    Возможно этот вопрос уже задавали, но я читаю форум и справку, но ничего не могу понять.
    Я опишу ситуацию: у меня есть допустим 100-200 URL ссылок.
    Мне необходимо, чтобы программа автоматически сохранила эти html страницы на компьютер так, если бы я на каждой из них в браузере нажал Ctrl+S и сохранил в нужную папку. WBApp я пытался там найти функцию такую, но там вижу только клики. Подскажите, пожалуйста, чайнику
    Спасибо.
     
  2. Root

    Root Администратор Администратор

    Регистрация:
    10 мар 2010
    Сообщения:
    14.818
    Город:
    Барнаул
    Здравствуйте.

    Такой возможности сейчас нет.
     
  3. inotoxic

    inotoxic Well-Known Member Пользователи

    Регистрация:
    13 сен 2015
    Сообщения:
    867
    Можно решить на платной основе
     
  4. vladuwka90

    vladuwka90 New Member Пользователи

    Регистрация:
    24 дек 2020
    Сообщения:
    3
    Город:
    Караганда
    какова цена вопроса?
     
  5. vladuwka90

    vladuwka90 New Member Пользователи

    Регистрация:
    24 дек 2020
    Сообщения:
    3
    Город:
    Караганда
    и какой вариант решения? то есть 100 ссылок это для примера. на деле их будут тысячи
     
  6. inotoxic

    inotoxic Well-Known Member Пользователи

    Регистрация:
    13 сен 2015
    Сообщения:
    867
    Парсер.
    По списку ссылок, будет сохраняться DOM модель страницы.
    Подробней в лс, в подписи есть контакты
     

Поделиться этой страницей