Удаление дублей после сбора ссылок

Тема в разделе "Фильтры ссылок", создана пользователем phederal, 23 ноя 2015.

  1. phederal

    phederal New Member Banned

    Регистрация:
    3 окт 2015
    Сообщения:
    18
    Добрый день!
    Подскажите пожалуйста, парситься 10 сайтов с периодичностью например 10 минут. Получается что каждый раз когда собираются ссылки для парсинга, там есть те которые уже парсились, как можно сделать чтобы по второму разу программа их не парсила? И как это настроить в автоматическом режиме? парсинг работает через пост запрос Заранее спасибо за помощь!
     
  2. kagorec

    kagorec Администратор Команда форума Администратор

    Регистрация:
    3 янв 2011
    Сообщения:
    4.431
    Адрес:
    Latvia
    ctrl+t
     

    Вложения:

  3. phederal

    phederal New Member Banned

    Регистрация:
    3 окт 2015
    Сообщения:
    18
    то есть правильно понял что все проекты мы сохраняем в один txt? и далее программа через планировщик сама будет все делать, правильно понял?
     
  4. Root

    Root Администратор Администратор

    Регистрация:
    10 мар 2010
    Сообщения:
    14.818
    Город:
    Барнаул
    Здравствуйте.

    Во всех проектах, в указанном выше поле вставляете один и тот же путь к txt.

    С уважением к вам, Сергей.
     
  5. phederal

    phederal New Member Banned

    Регистрация:
    3 окт 2015
    Сообщения:
    18
    С толкнулся с такой проблемой, в разделе ссылки указал путь для сохранения ссылок, при парсинге контента все удаляется, при том что ссылки не повторяются
     

Поделиться этой страницей