A. 如何用爬蟲爬網路代理伺服器地址
網路數據量越來越大,從網頁中獲取信息變得越來越困難,如何有效地抓取並利用信息,已成為網路爬蟲一個巨大的挑戰。下面IPIDEA為大家講明爬蟲代理IP的使用方法。
1.利用爬蟲腳本每天定時爬取代理網站上的ip,寫入MongoDB或者其他的資料庫中,這張表作為原始表。
2.使用之前需要做一步測試,就是測試這個ip是否有效,方法就是利用curl訪問一個網站查看返回值,需要創建一張新表,循環讀取原始表有效則插入,驗證之後將其從原始表中刪除,驗證的同時能夠利用響應時間來計算這個ip的質量,和最大使用次數,有一個演算法能夠參考一種基於連接代理優化管理的多線程網路爬蟲處理方法。
3.把有效的ip寫入ip代理池的配置文件,重新載入配置文件。
4.讓爬蟲程序去指定的dailiy的服務ip和埠,進行爬取。
B. 請教一個網路爬蟲爬取網站鏈接的問題
遞歸,找到頁面上的鏈接,再獲取這些頁面,並且重復這個過程,和遍歷treeview差不多。
不同的是,treeview是樹,不存在迴路,網頁鏈接是圖,你必須判斷某些鏈接是否已經訪問過,並且不再訪問它們。
C. 爬蟲怎樣用第一步採集到的鏈接訪問子網頁
通過爬蟲工具,先採集得到一級網頁鏈接,然後再訪客子網頁的地址,然後獲取當前URL
D. 網路爬蟲應該怎麼抓取調用JS函數的鏈接地址
c可以使用ForeSpider軟體,這款軟體有獨立知識產權JS引擎,可以採集到所有JS生成的動態頁面的數據,另外使用也非常便捷,簡單幾步就可以完成採集配置,或者可以直接從前嗅購買配置好的模板,拿來之後直接點一個按鈕,就可以開始採集,我之前用筆記本使用ForeSpider採集數據,一天就是好幾百萬條。http://www.forenose.com/這個是網址,你可以下軟體試一試,免費版也很好用,沒有功能和使用時長限制。
E. 寫個python 爬蟲怎麼爬取一個網頁上面發現的url鏈接
1.使用beautifulsoup框架。
frombs4importBeautifulSoup
bs=BeautifulSoup('網頁源碼',"html.parser")
bs.findAll('a')#查找所有的超鏈接
#具體方法可以參見官方文檔
2.使用正則表達式
F. 爬蟲 打開網址
C#特別適合於構造蜘蛛程序,這是因為它已經內置了HTTP訪問和多線程的能力,而這兩種能力對於蜘蛛程序來說都是非常關鍵的。下面是構造一個蜘蛛程序要解決的關鍵問題:
⑴ HTML分析:需要某種HTML解析器來分析蜘蛛程序遇到的每一個頁面。
⑵ 頁面處理:需要處理每一個下載得到的頁面。下載得到的內容可能要保存到磁碟,或者進一步分析處理。
⑶ 多線程:只有擁有多線程能力,蜘蛛程序才能真正做到高效。
⑷ 確定何時完成:不要小看這個問題,確定任務是否已經完成並不簡單,尤其是在多線程環境下。
一、HTML解析
本文提供的HTML解析器由ParseHTML類實現,使用非常方便:首先創建該類的一個實例,然後將它的Source屬性設置為要解析的HTML文檔:
ParseHTML parse = new ParseHTML();
parse.Source = "<p>Hello World</p>";
接下來就可以利用循環來檢查HTML文檔包含的所有文本和標記。通常,檢查過程可以從一個測試Eof方法的while循環開始:
while(!parse.Eof())
{
char ch = parse.Parse();
Parse方法將返回HTML文檔包含的字元--它返回的內容只包含那些非HTML標記的字元,如果遇到了HTML標記,Parse方法將返回0值,表示現在遇到了一個HTML標記。遇到一個標記之後,我們可以用GetTag()方法來處理它。
if(ch==0)
{
HTMLTag tag = parse.GetTag();
}
一般地,蜘蛛程序最重要的任務之一就是找出各個HREF屬性,這可以藉助C#的索引功能完成。例如,下面的代碼將提取出HREF屬性的值(如果存在的話)。
Attribute href = tag["HREF"];
string link = href.Value;
獲得Attribute對象之後,通過Attribute.Value可以得到該屬性的值。
二、處理HTML頁面
下面來看看如何處理HTML頁面。首先要做的當然是下載HTML頁面,這可以通過C#提供的HttpWebRequest類實現:
HttpWebRequest request = (HttpWebRequest)WebRequest.Create(m_uri);
response = request.GetResponse();
stream = response.GetResponseStream();
接下來我們就從request創建一個stream流。在執行其他處理之前,我們要先確定該文件是二進制文件還是文本文件,不同的文件類型處理方式也不同。下面的代碼確定該文件是否為二進制文件。
if( !response.ContentType.ToLower().StartsWith("text/") )
{
SaveBinaryFile(response);
return null;
}
string buffer = "",line;
如果該文件不是文本文件,我們將它作為二進制文件讀入。如果是文本文件,首先從stream創建一個StreamReader,然後將文本文件的內容一行一行加入緩沖區。
reader = new StreamReader(stream);
while( (line = reader.ReadLine())!=null )
{
buffer+=line+"\r\n";
}
裝入整個文件之後,接著就要把它保存為文本文件。
SaveTextFile(buffer);
下面來看看這兩類不同文件的存儲方式。
二進制文件的內容類型聲明不以"text/"開頭,蜘蛛程序直接把二進制文件保存到磁碟,不必進行額外的處理,這是因為二進制文件不包含HTML,因此也不會再有需要蜘蛛程序處理的HTML鏈接。下面是寫入二進制文件的步驟。
首先准備一個緩沖區臨時地保存二進制文件的內容。 byte []buffer = new byte[1024];
接下來要確定文件保存到本地的路徑和名稱。如果要把一個myhost.com網站的內容下載到本地的c:\test文件夾,二進制文件的網上路徑和名稱是http://myhost.com/images/logo.gif,則本地路徑和名稱應當是c:\test\images\logo.gif。與此同時,我們還要確保c:\test目錄下已經創建了images子目錄。這部分任務由convertFilename方法完成。
string filename = convertFilename( response.ResponseUri );
convertFilename方法分離HTTP地址,創建相應的目錄結構。確定了輸出文件的名字和路徑之後就可以打開讀取Web頁面的輸入流、寫入本地文件的輸出流。
Stream outStream = File.Create( filename );
Stream inStream = response.GetResponseStream();
接下來就可以讀取Web文件的內容並寫入到本地文件,這可以通過一個循環方便地完成。
int l;
do
{
l = inStream.Read(buffer,0,
buffer.Length);
if(l>0)
outStream.Write(buffer,0,l);
} while(l>0);
三、多線程
我們用DocumentWorker類封裝所有下載一個URL的操作。每當一個DocumentWorker的實例被創建,它就進入循環,等待下一個要處理的URL。下面是DocumentWorker的主循環:
while(!m_spider.Quit )
{
m_uri = m_spider.ObtainWork();
m_spider.SpiderDone.WorkerBegin();
string page = GetPage();
if(page!=null)
ProcessPage(page);
m_spider.SpiderDone.WorkerEnd();
}
這個循環將一直運行,直至Quit標記被設置成了true(當用戶點擊"Cancel"按鈕時,Quit標記就被設置成true)。在循環之內,我們調用ObtainWork獲取一個URL。ObtainWork將一直等待,直到有一個URL可用--這要由其他線程解析文檔並尋找鏈接才能獲得。Done類利用WorkerBegin和WorkerEnd方法來確定何時整個下載操作已經完成。
從圖一可以看出,蜘蛛程序允許用戶自己確定要使用的線程數量。在實踐中,線程的最佳數量受許多因素影響。如果你的機器性能較高,或者有兩個處理器,可以設置較多的線程數量;反之,如果網路帶寬、機器性能有限,設置太多的線程數量其實不一定能夠提高性能。
四、任務完成了嗎?
利用多個線程同時下載文件有效地提高了性能,但也帶來了線程管理方面的問題。其中最復雜的一個問題是:蜘蛛程序何時才算完成了工作?在這里我們要藉助一個專用的類Done來判斷。
首先有必要說明一下"完成工作"的具體含義。只有當系統中不存在等待下載的URL,而且所有工作線程都已經結束其處理工作時,蜘蛛程序的工作才算完成。也就是說,完成工作意味著已經沒有等待下載和正在下載的URL。
Done類提供了一個WaitDone方法,它的功能是一直等待,直到Done對象檢測到蜘蛛程序已完成工作。下面是WaitDone方法的代碼。
public void WaitDone()
{
Monitor.Enter(this);
while ( m_activeThreads>0 )
{
Monitor.Wait(this);
}
Monitor.Exit(this);
}
WaitDone方法將一直等待,直到不再有活動的線程。但必須注意的是,下載開始的最初階段也沒有任何活動的線程,所以很容易造成蜘蛛程序一開始就立即停止的現象。為解決這個問題,我們還需要另一個方法WaitBegin來等待蜘蛛程序進入"正式的"工作階段。一般的調用次序是:先調用WaitBegin,再接著調用WaitDone,WaitDone將等待蜘蛛程序完成工作。下面是WaitBegin的代碼:
public void WaitBegin()
{
Monitor.Enter(this);
while ( !m_started )
{
Monitor.Wait(this);
}
Monitor.Exit(this);
}
WaitBegin方法將一直等待,直到m_started標記被設置。m_started標記是由WorkerBegin方法設置的。工作線程在開始處理各個URL之時,會調用WorkerBegin;處理結束時調用WorkerEnd。WorkerBegin和WorkerEnd這兩個方法幫助Done對象確定當前的工作狀態。下面是WorkerBegin方法的代碼:
public void WorkerBegin()
{
Monitor.Enter(this);
m_activeThreads++;
m_started = true;
Monitor.Pulse(this);
Monitor.Exit(this);
}
WorkerBegin方法首先增加當前活動線程的數量,接著設置m_started標記,最後調用Pulse方法以通知(可能存在的)等待工作線程啟動的線程。如前所述,可能等待Done對象的方法是WaitBegin方法。每處理完一個URL,WorkerEnd方法會被調用:
public void WorkerEnd()
{
Monitor.Enter(this);
m_activeThreads--;
Monitor.Pulse(this);
Monitor.Exit(this);
}
WorkerEnd方法減小m_activeThreads活動線程計數器,調用Pulse釋放可能在等待Done對象的線程--如前所述,可能在等待Done對象的方法是WaitDone方法。
G. 爬蟲中怎樣用扒出來的鏈接扒網頁中的內容
我們在瀏覽器地址欄輸入一個網址並按回車,就會打開一個頁面,同樣,爬蟲是通過每一個網址打開頁面並收集頁面中的信息,通常我們在寫網路爬蟲時需要指定一個起始網址,爬蟲通過請求該起始網址獲得瀏覽器給出的響應,響應中包含頁面上的所有內容,爬蟲分析頁面內容進行信息收集,這個過程可以通過採集器或手寫爬蟲實現。望採納
H. php中curl爬蟲 怎麼樣通過網頁獲取所有鏈接
本文承接上面兩篇,本篇中的示例要調用到前兩篇中的函數,做一個簡單的URL採集。一般php採集網路數據會用file_get_contents、file和cURL。不過據說cURL會比file_get_contents、file更快更專業,更適合採集。今天就試試用cURL來獲取網頁上的所有鏈接。示例如下:
<?php
/*
* 使用curl 採集hao123.com下的所有鏈接。
*/
include_once('function.php');
$ch = curl_init();
curl_setopt($ch, CURLOPT_URL, 'http://www.hao123.com/');
// 只需返回HTTP header
curl_setopt($ch, CURLOPT_HEADER, 1);
// 頁面內容我們並不需要
// curl_setopt($ch, CURLOPT_NOBODY, 1);
// 返回結果,而不是輸出它
curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1);
$html = curl_exec($ch);
$info = curl_getinfo($ch);
if ($html === false) {
echo "cURL Error: " . curl_error($ch);
}
curl_close($ch);
$linkarr = _striplinks($html);
// 主機部分,補全用
$host = 'http://www.hao123.com/';
if (is_array($linkarr)) {
foreach ($linkarr as $k => $v) {
$linkresult[$k] = _expandlinks($v, $host);
}
}
printf("<p>此頁面的所有鏈接為:</p><pre>%s</pre>n", var_export($linkresult , true));
?>
function.php內容如下(即為上兩篇中兩個函數的合集):
<?php
function _striplinks($document) {
preg_match_all("'<s*as.*?hrefs*=s*(["'])?(?(1) (.*?)\1 | ([^s>]+))'isx", $document, $links);
// catenate the non-empty matches from the conditional subpattern
while (list($key, $val) = each($links[2])) {
if (!empty($val))
$match[] = $val;
} while (list($key, $val) = each($links[3])) {
if (!empty($val))
$match[] = $val;
}
// return the links
return $match;
}
/*===================================================================*
Function: _expandlinks
Purpose: expand each link into a fully qualified URL
Input: $links the links to qualify
$URI the full URI to get the base from
Output: $expandedLinks the expanded links
*===================================================================*/
function _expandlinks($links,$URI)
{
$URI_PARTS = parse_url($URI);
$host = $URI_PARTS["host"];
preg_match("/^[^?]+/",$URI,$match);
$match = preg_replace("|/[^/.]+.[^/.]+$|","",$match[0]);
$match = preg_replace("|/$|","",$match);
$match_part = parse_url($match);
$match_root =
$match_part["scheme"]."://".$match_part["host"];
$search = array( "|^http://".preg_quote($host)."|i",
"|^(/)|i",
"|^(?!http://)(?!mailto:)|i",
"|/./|",
"|/[^/]+/../|"
);
$replace = array( "",
$match_root."/",
$match."/",
"/",
"/"
);
$expandedLinks = preg_replace($search,$replace,$links);
return $expandedLinks;
}
?>
I. 如何 python 爬蟲 把網站 鏈接爬下來
方法很多:
2.獲取含有鏈接的標簽,再取其鏈接 ,可能需要用到的庫lxml ,bs4,pyquery
1.正則匹配,匹配出符合需要的網頁鏈接
J. 如何正確利用網路爬蟲
基本步驟