有图片的地址,如:http://i2.pixiv.net/img-original/img/201...
还有登陆后获取的cooikes:Connection cookies(Map<String, String> cookies);
登陆和获取cooikes以及解析页面是使用的jsoup。
但是需要登陆后才能获取,使用以下代码:
private void downloadImg(String imgURL) throws MalformedURLException, IOException {
URL url = new URL(imgURL);
URLConnection uc = url.openConnection();
InputStream is = uc.getInputStream();
File file = new File("D:\\pixiv");
FileOutputStream out = new FileOutputStream(file);
int i = 0;
while ((i = is.read()) != -1) {
out.write(i);
}
is.close();
}
只能下载不需要登陆的页面的图片。
要如何使用jsoup带cooikes来从网站下载图片
问题已解决,使用Firebug抓取浏览器中浏览图片时发送的请求包然后再根据其格式,使用URLConnection构造发送带cookies的请求包即可。就是对于大于1M的图片下载速度太慢了。
不管你用什么解析HTML,唯一确定你登录的就是http请求中的cookie,所以你可以先发生登录请求,从http res中拿到cookie,之后再将cookie设置到下一次http请求中,就完成了浏览器保持cookie的操作,需要登录的资源数据就可以下载了
提取img src后,如果用URLConnection 下载图片有没有权限,看下网站中有没有session_id之类的东西,总之就是找出用户登录的标识,在img src中带上些标识
用
apache httpClient
模拟登陆