Мини сохранялка информации из Web страниц...
30 Ноября, 2010Просмотров: 4905
Недавно понадобилось с определенных страниц, по сохранять информацию, но вручную делать как то слишком медленно, особенно когда надо просмотреть тысячи страниц, вот и решил написать программку, которая делала все это за меня, сразу сделал под определенный сайт, но потом переделал под универсальную. Да заодно подумал немешало бы вспомнить Visual C++, проект стал делать под MFC на Visual Studio 2010. Проект конечно простенький и может сыровато выглядит, но так и сделан за пару часиков, по-быстрому.
В поле URL заносится адрес вида http://...........index=<page>.... - адрес может быть любой,где <page> это префик(может быть любой, задается в поле prefix in URL page1) он будет заменяться цифрами из граф start page и end page.
Page 2 аналогично URL, но она используется когда надо в основной странице найти идентификатор следующей, к примеру страница со списком. Если пустая то не используется. Data for find URL2 заполняется начальный текст после которого идет нужная нам часть, и чем заканчивается, все что между ними будет подставлено в префикс второго URL2.
И ниже 3 пары полей, это данные которые достаем из страницы и сохраняются автоматом в файл data.dat текстового вида в корне с программой. Также тест перед нужной информацией и после. Если поле пустое то не будет искаться...
Вот собственно архив программы, если кому то нужен.
В рубрике: Свои разработки » Софт
Теги: C++ MFC Visual Web грабер разработка сохранялка
Вы можете следить за комментариями к этой записи поRSS
Оставьте комментарий