现在大数据时代,爬虫工作者已经成为互联网数据公司的关键性职位,他们不但要精通数据抓取和分析,其次还要熟悉搜索引擎和相关检索算法,对各种算法都要有一定的了解。并做工作进程编排合理的布局。
爬虫有很多的方式,但Java爬虫是开发中应用最多的一种网页获取技术,速度和性能一流,在功能支持方面显得较为底层。而jsoup 是一款Java 的HTML解析器,可直接解析某个URL地址、HTML文本内容。它提供了一套非常省力的API,可通过DOM,CSS以及类似于jQuery的操作方法来取出和操作数据。
针对爬虫行业,我们推出动态转发的高质量代理ip解决方案,完美的为爬虫行业解决痛点,动态转发使用简单,方便,不限制机器使用,更适合项目的快速启动。最简单的方式如下:
import java.io.IOException; import java.net.Authenticator; import java.net.InetSocketAddress; import java.net.PasswordAuthentication; import java.net.Proxy; import org.jsoup.Jsoup; import org.jsoup.nodes.Document; public class Demo { // 代理验证信息 final static String ProxyUser = "16MNWZCB"; final static String ProxyPass = "365090"; // 代理服务器(产品官网 www.16yun.cn) final static String ProxyHost = "t.16yun.cn"; final static Integer ProxyPort = 31111; // 设置IP切换头 final static String ProxyHeadKey = "Proxy-Tunnel"; public static String getUrlProxyContent(String url) { Authenticator.setDefault(new Authenticator() { public PasswordAuthentication getPasswordAuthentication() { return new PasswordAuthentication(ProxyUser, ProxyPass.toCharArray()); } }); // 设置Proxy-Tunnel Random random = new Random(); int tunnel = random.nextInt(10000); String ProxyHeadVal = String.valueOf(tunnel); Proxy proxy = new Proxy(Proxy.Type.HTTP, new InetSocketAddress(ProxyHost, ProxyPort)); try { // 处理异常、其他参数 Document doc = Jsoup.connect(url).timeout(3000).header(ProxyHeadKey, ProxyHeadVal).proxy(proxy).get(); if(doc != null) { System.out.println(doc.body().html()); } } catch (IOException e) { e.printStackTrace(); } return null; } public static void main(String[] args) throws Exception { // 要访问的目标页面 String targetUrl = "https://weibo.com/"; getUrlProxyContent(targetUrl); } }