周大老板这个技术外行,怎么还关心起技术细节来了?
就缓缓的解释道:“爬虫是搜索的基础工具,爬虫搜信息……嗯,就跟使用浏览器上网差不多,都是先向服务器发送请求,获得返回的页面,然后筛选出有价值的内容。如果时间足够长计算量足够大,使用爬虫工具,就可以把互联网上的所有信息都搜索一遍。”
见周大老板似乎很感兴趣的样子。
王小船就拿过纸笔,很快速的写下了一行代码,“假如说我们要爬取微知网的信息,用这行代码就可以实现了。”
周不器拿过代码一看,嗯,是很简单。
&={‘’:‘’,}
&(“
&=>
&)
难怪说3月份的时候,北科有两个计算机系的大学生被开除了。
这技术好像是不太难。
因为大四写论文,可用谷歌、百度、微点等搜索引擎,却搜不到别人写的相关论文。怎么办?就有计算机系的学生,自己写了段爬虫算法。
内容未完,下一页继续阅读