1. 用易語言做一個網頁自動登錄自動抽獎的輔助 大概需要怎麼做
你要做的是一個網頁自動抽獎的輔助軟體,可以自動登錄,選大區,選擇活動也就是抽獎頁面,然後選領取就可以抽獎。這樣的操作需要用到對網頁的刷新,點擊,自動提交的功能。而且網頁自動刷新,自動點擊和自動提交的功能必須能搭配使用。這樣的話,可以用用PageOperator來實現的。
2. 網路信息抽取的工具
網路數據抽取工具簡介
傳統的網路數據抽取是針對抽取對象手工編寫一段專門的抽取程序,這個程序稱為包裝器(wrapper)。近年來,越來越多的網路數據抽取工具被開發出來,替代了傳統的手工編寫包裝器的方法。目前的網路數據抽取工具可分為以下幾大類(實際上,一個工具可能會歸屬於其中若干類):
開發包裝器的專用語言(Languages for Wrapper Development):用戶可用這些專用語言方便地編寫包裝器。例如Minerva,TSIMMIS,Web-OQL,FLORID,Jedi等。
以HTML為中間件的工具(HTML-aware Tools):這些工具在抽取時主要依賴HTML文檔的內在結構特徵。在抽取過程之前,這些工具先把文檔轉換成標簽樹;再根據標簽樹自動或半自動地抽取數據。代表工具有Knowlesys,MDR。
基於NLP(Natural language processing)的工具(NLP-based Tools):這些工具通常利用filtering、part-of-speech tagging、lexical semantic tagging等NLP技術建立短語和句子元素之間的關系,推導出抽取規則。這些工具比較適合於抽取那些包含符合文法的頁面。代表工具有 RAPIER,SRV,WHISK。
包裝器的歸納工具(Wrapper Inction Tools):包裝器的歸納工具從一組訓練樣例中歸納出基於分隔符的抽取規則。這些工具和基於NLP的工具之間最大的差別在於:這些工具不依賴於語言約束,而是依賴於數據的格式化特徵。這個特點決定了這些工具比基於NLP的工具更適合於抽取HTML文檔。代表工具有:WIEN,SoftMealy,STALKER。
基於模型的工具(Modeling-based Tools):這些工具讓用戶通過圖形界面,建立文檔中其感興趣的對象的結構模型,「教」工具學會如何識別文檔中的對象,從而抽取出對象。代表工具有:NoDoSE,DEByE。
基於本體的工具(Ontology-based Tools):這些工具首先需要專家參與,人工建立某領域的知識庫,然後工具基於知識庫去做抽取操作。如果知識庫具有足夠的表達能力,那麼抽取操作可以做到完全自動。而且由這些工具生成的包裝器具有比較好的靈活性和適應性。代表工具有:BYU,X-tract。
3. 基於web數據抽取有幾種方法優缺點是什麼
1 基於自然語言的Web 信息抽取
自然語言處理是計算機科學領域與人工智慧領域中的一個重要方向。它研究能實現人與
計算機之間用自然語言進行有效通信的各種理論和方法。基於自然語言處理的方法在一定程
度上借鑒了自然語言處理技術,利用子句結構、短語和子句之間的關系,建立基於語法和語
義的抽取規則來實現信息抽取。目前採用這種原理的典型系統有RAPIER[3], WHISK [2]。下
面介紹比較有代表性的WHISK 系統。
WHISK 系統既適用於結構化、半結構化的文本也適用於自由文本。該系統並不需要提
前進行語法分析,它的規則不僅由文本中的一個短語或一系列與某領域相關的短語學習而得
到,還可以由這些短語的約束學習得到。為了盡可能加入人的參與,該系統同時學習和標記
訓練數據,而不是隨機取實例進行手工標記。系統使用語法分析器和語義類(如人名、機構
名)分析器,分析出用戶標記信息的語法成分和對應的語義類,生成基於語法標記和語義類
標記的抽取規則,實現信息抽取。
這種方法的缺點是:沒有很好的利用HTML 文檔的層次結構;需要大量的人為參與的
工作,很難實現自動的抽取;只支持記錄型的語義模式結構,不支持復雜對象的抽取。所以
此方法適用范圍較窄。
2 基於HTML 文檔結構的Web 信息抽取
這類Web 信息抽取技術的特點是依賴於HTML 文檔的內部結構特徵。在信息抽取之前,
將HTML 文檔解析成能夠體現該文檔標簽層次關系的語法樹,通過自動或者半自動的方式
產生抽取規則,將信息抽取轉化為對語法樹的操作實現信息抽取。採用該類介紹的典型系統
有LIXTO[5]、W4F[6]和DataRover[4]等。
DataRover 利用啟發規則發現分類片段中的結構規律。然後利用這些規律將在線目錄轉
換到資料庫中的分類產品。該系統使用了一個頁面分割演算法將Web 頁解析的DOM(文檔對
象模型)樹作為輸入通過該演算法找到其中的邏輯段。該系統的不足之處在於:這個方法依賴
於HTML 頁解析的DOM樹,由於大部分的HTML 頁是非良好結構的,所以解析產生的DOM
樹也不完全正確;另外,此系統只適用於那些包含明確分類的領域,使用范圍比較窄。
LIXTO 可以生成包裝器來將HTML 頁轉換成XML[13](可擴展標識語言)文檔。允許用
戶以可視化、互動式的方式對樣本頁面中的信息進行標記,系統通過記錄用戶標記的信息生
成信息抽取規則,實現對相似結構網頁的信息抽取。它的不足之處是它的抽取規則使用基於
Datalog 的Elog 語言描述的,實現和優化校困難,另外抽取規則中抽取信息的描述不夠豐富,
不支持圖像信息和文獻信息的處理。
4. python如何定時提取網頁信息並自動保存
有現成的工具可以自動提取保存,比如mutoubrowse也可以定時保存。
5. 如何用 Python 實現 Web 抓取
Web 抓取的定義
Web 抓取是抽取網路數據的過程。只要藉助合適的工具,任何你能看到的數據都可以進行抽取。在本文中,我們將重點介紹自動化抽取過程的程序,幫助你在較短時間內收集大量數據。除了筆者前文提到的用例,抓取技術的用途還包括:SEO 追蹤、工作追蹤、新聞分析以及筆者的最愛——社交媒體的情感分析!
一點提醒
在開啟 Web 抓取的探險之前,請確保自己了解相關的法律問題。許多網站在其服務條款中明確禁止對其內容進行抓取。例如,Medium 網站就寫道:「遵照網站 robots.txt 文件中的規定進行的爬取操作(Crawling)是可接受的,但是我們禁止抓取(Scraping)操作。」對不允許抓取的網站進行抓取可能會使你進入他們的黑名單!與任何工具一樣,Web 抓取也可能用於復制網站內容之類的不良目的。此外,由 Web 抓取引起的法律訴訟也不在少數。
設置代碼
在充分了解小心行事的必要之後,讓我們開始學習 Web 抓取。其實,Web 抓取可以通過任何編程語言實現,在不久之前,我們使用 Node 實現過。在本文中,考慮到其簡潔性與豐富的包支持,我們將使用 Python 實現抓取程序。
Web 抓取的基本過程
當你打開網路中的某個站點時,就會下載其 HTML 代碼,由你的 web 瀏覽器對其進行分析與展示。該 HTML 代碼包含了你所看到的所有信息。因此,通過分析 HTML 代碼就能得到所需信息(比如價格)。你可以使用正則表達式在數據海洋中搜索你需要的信息,也可以使用函數庫來解釋 HTML,同樣也能得到需要數據。
在 Python 中,我們將使用一個名為靚湯(Beautiful Soup)的模塊對 HTML 數據進行分析。你可以藉助 pip 之類的安裝程序安裝之,運行如下代碼即可:
pip install beautifulsoup4
或者,你也可以根據源碼進行構建。在該模塊的文檔說明頁,可以看到詳細的安裝步驟。
安裝完成之後,我們大致會遵循以下步驟實現 web 抓取:
向 URL 發送請求
接收響應
分析響應以尋找所需數據
作為演示,我們將使用筆者的博客 http://dada.theblogbowl.in/. 作為目標 URL。
前兩個步驟相對簡單,可以這樣完成:
from urllib import urlopen#Sending the http requestwebpage = urlopen('http://my_website.com/').read()
接下來,將響應傳給之前安裝的模塊:
from bs4 import BeautifulSoup#making the soup! yummy ;)soup = BeautifulSoup(webpage, "html5lib")
請注意,此處我們選擇了 html5lib 作為解析器。根據 BeautifulSoup 的文檔,你也可以為其選擇不同的解析器。
解析 HTML
在將 HTML 傳給 BeautifulSoup 之後,我們可以嘗試一些指令。譬如,檢查 HTML 標記代碼是否正確,可以驗證該頁面的標題(在 Python 解釋器中):
>>> soup.title<title>Transcendental Tech Talk</title>>>> soup.title.text
u'Transcendental Tech Talk'
>>>
接下來,開始抽取頁面中的特定元素。譬如,我想抽取博客中文章標題的列表。為此,我需要分析 HTML 的結構,這一點可以藉助 Chrome 檢查器完成。其他瀏覽器也提供了類似的工具。
使用 Chrome 檢查器檢查某個頁面的 HTML 結構
如你所見,所有文章標題都帶有 h3 標簽與兩個類屬性:post-title 與 entry-title 類。因此,用 post-title類搜索所有 h3 元素就能得到該頁的文章標題列表。在此例中,我們使用 BeautifulSoup 提供的 find_all 函數,並通過 class_ 參數確定所需的類:
>>> titles = soup.find_all('h3', class_ = 'post-title') #Getting all titles>>> titles[0].textu'\nKolkata #BergerXP IndiBlogger meet, Marketing Insights, and some Blogging Tips\n'>>>
只通過 post-title 類進行條目搜索應該可以得到相同的結果:
>>> titles = soup.find_all(class_ = 'post-title') #Getting all items with class post-title>>> titles[0].textu'\nKolkata #BergerXP
IndiBlogger meet, Marketing Insights, and some Blogging Tips\n'>>>