kamike.collect 介绍
Another Simple Crawler 又一个网络爬虫,可以支持代理服务器的翻墙爬取。
1.数据存在MysqL当中。
2.使用时,先修改web-inf/config.ini的数据链接相关信息,主要是数据库名和用户名和密码
3.然后访问http://127.0.0.1/fetch/install 链接,自动创建数据库表
4.修改src\java\cn\exinhua\fetch中的RestServlet.java文件:
FetchInst.getInstance().running=true; Fetch fetch = new Fetch(); fetch.setUrl("http://www.washingtonpost.com/"); fetch.setDepth(3); RegexRule regexRule = new RegexRule(); regexRule.addNegative(".*#.*"); regexRule.addNegative(".*png.*"); regexRule.addNegative(".*jpg.*"); regexRule.addNegative(".*gif.*"); regexRule.addNegative(".*js.*"); regexRule.addNegative(".*css.*"); regexRule.addPositive(".*PHP.*"); regexRule.addPositive(".*html.*"); regexRule.addPositive(".*htm.*"); Fetcher fetcher = new Fetcher(fetch); fetcher.setProxyAuth(true); fetcher.setRegexRule(regexRule); List<Fetcher> fetchers = new ArrayList<>(); fetchers.add(fetcher); FetchUtils.start(fetchers); 将其配置为需要的参数,然后访问http://127.0.0.1/fetch/fetch启动爬取 代理的配置在Fetch.java文件中: protected int status; protected boolean resumable = false; protected RegexRule regexRule = new RegexRule(); protected ArrayList<String> seeds = new ArrayList<String>(); protected Fetch fetch; protected String proxyUrl="127.0.0.1"; protected int proxyPort=4444; protected String proxyUsername="hkg"; protected String proxyPassword="dennis"; protected boolean proxyAuth=false;
5.访问http://127.0.0.1/fetch/suspend可以停止爬取
kamike.collect 官网
https://github.com/hubinix/kamike.collect
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。