當前位置:首頁 » 網頁前端 » 聚合搜索引擎腳本
擴展閱讀
webinf下怎麼引入js 2023-08-31 21:54:13
堡壘機怎麼打開web 2023-08-31 21:54:11

聚合搜索引擎腳本

發布時間: 2023-03-30 17:56:19

A. lai79這個網站有什麼特色

Lai79搜索是一個很實用的聚合搜索引擎,功能很強大。在這個搜索引擎聚合站點中,可伏團中以選擇使用百缺山度、谷歌、雅虎、有道、搜狗等主流的搜索引擎。好多時候,我們會因為選擇使用網路還是谷歌搜索答案犯難。網路可能結果多一些,但谷歌更精確。幸運的是,今後我們無需為使用哪個搜索引擎犯難了,輸入一次我們需要查找的關鍵詞,lai79幫我們把幾大搜索引擎的結果頁面都找或友出來了。因為每個搜索引擎對於網頁的收錄偏好不同,所以利用這個聚合平台就會查找出更加全面准確的結果。在這里,各搜索引擎結果頁面可隨意切換,用起來非常方便。而且這個網站幾乎囊括了新聞、圖片、音樂、視頻、論壇、it、汽車、下載等所有頻道。
舉一個生活中類似的例子。每個飯館都有自己的拿手菜,但即使最大的飯店也不可能保證做到最全、最好。假如有一個叫「快全」的俱樂部,她可以隨時拿到幾乎所以飯店的拿手菜(我們暫且不討論是如何快速實現的),我想你肯定會選擇在這里吃飯。今天,lai79就是為了更快、更全面的滿足網民的需求而誕生的。
lai79網址導航是一個純手工收錄網址的站點。首先做到了安全無毒,絕對可以放心使用。無廣告,新站收錄快是一大特色。當然,更加重要的是因為有一個年輕的團隊在用心服務。他們的目的是不斷實現自己的創新理念,實用、快捷、高效

B. 分布式搜索引擎elasticsearch的架構原理

分布式搜索引擎:把大量的索引數據拆散成多塊,每台機器放一部分,然 後利用多台機器對分散之後的數據進行搜索,所有操作全部是分布在多台機器上進行,形成了 完整的分布式的架構。

近實時,有兩層意思:

集群包含多個節點,每個節點屬於哪個集群都是通數旦橋過一個配置來決定的,
Node 是集群中的一個節點,節點也有一個名稱,默認是隨機分配的。默認節點會去加入一個名 稱為 elasticsearch 的集群。如果直接啟動一堆節點,那麼它們會自動組成一個elasticsearch 集群,當然一個節點也可以組成 elasticsearch 集群。

文檔是 es 中最小的數據單元,一個 document 可以是1條客戶數據、1條商品分類數據、1條 訂單數據,通常用json 數據結構來表示。每個 index 下的 type,都可以存儲多條 document。
1個 document 裡面有多個 field,每個 field 就是1個數據欄位。

es 集群多個節點,會自動選舉1個節點為 master 節點,這個 master 節點其實就是干一些管理 的工作的,比如維護索引元數據、負責切換 primary shard 和 replica shard 身份等。要是 master 節點宕機了,那麼會重新選舉1個節點為 master 節點。 如果是非 master節點宕薯猛機了,那麼會由 master 節點,讓那個宕機節點上的 primary shard 的身 份轉移到其他機器上的 replica shard。接著你要是修復了那個宕機機器,重啟了之後,master 節點會控制將缺失的 replica shard 分配過去,同步後續修改的數據之類的,讓集群恢復正常。 說得更簡單1點,就是說如果某個非 master 節點宕機了,那麼此節點上的 primary shard 不就 沒了。那好遲租,master 會讓 primary shard 對應的 replica shard(在其他機器上)切換為 primary shard。如果宕機的機器修復了,修復後的節點也不再是 primary shard,而是 replica shard。

索引可以拆分成多個 shard ,每個 shard 存儲部分數據。拆分多個 shard是有好處的,一是支持橫向擴展,比如你數據量是 3T,3 個 shard,每個 shard 就 1T 的數據, 若現在數據量增加到 4T,怎麼擴展,很簡單,重新建1個有 4 個 shard 的索引,將數據導進 去;二是提高性能,數據分布在多個 shard,即多台伺服器上,所有的操作,都會在多台機器 上並行分布式執行,提高了吞吐量和性能。 接著就是這個 shard 的數據實際是有多個備份,就是說每個 shard 都有1個 primary shard ,負責寫入數據,但是還有多個 replica shard 。 primary shard 寫入數據之後, 會將數據同步到其他幾個 replica shard上去。
通過這個 replica 的方案,每個 shard 的數據都有多個備份,如果某個機器宕機了,沒關系啊, 還有別的數據副本在別的機器上,這樣子就高可用了。

總結:分布式就是兩點,1.通過shard切片實現橫向擴展;2.通過replica副本機制,實現高可用

基本概念

寫數據過程:客戶端通過hash選擇一個node發送請求,這個node被稱做coordinating node(協調節點),協調節點對docmount進行路由,將請求轉發給到對應的primary shard,primary shard 處理請求,將數據同步到所有的replica shard,此時協調節點,發現primary shard 和所有的replica shard都處理完之後,就反饋給客戶端。

客戶端發送get請求到任意一個node節點,然後這個節點就稱為協調節點,協調節點對document進行路由,將請求轉發到對應的node,此時會使用隨機輪詢演算法,在primary shard 和replica shard中隨機選擇一個,讓讀取請求負載均衡,接收請求的node返回document給協調節點,協調節點,返回document給到客戶端

es最強大的是做全文檢索,就是比如你有三條數據
1.java真好玩兒啊
2.java好難學啊
3.j2ee特別牛

你根據java關鍵詞來搜索,將包含java的document給搜索出來。

更新/刪除數據過程,首先還是write、merge操作,然後flush過程中:
1、write過程和上面的一致;
2、refresh過程有點區別

所謂的倒排索引,就是把你的數據內容先分詞,每句話分成一個一個的關鍵詞,然後記錄好每一個關鍵詞對應出現在了哪些 id 標識的數據。
然後你可以從其他地根據這個 id 找到對應的數據就可以了,這個就是倒排索引的數據格式 以及搜索的方式,這種利倒排索引查找數據的式,也被稱之為全文檢索。

Inverted Index就是我們常見的倒排索引, 主要包括兩部分:
一個有序的數據字典 Dictionary(包括單詞 Term 和它出現的頻率)。
與單詞 Term 對應的 Postings(即存在這個單詞的文件)
當我們搜索的時候,首先將搜索的內容分解,然後在字典里找到對應 Term,從而查找到與搜索相關的文件內容。

本質上,Stored Fields 是一個簡單的鍵值對 key-value。默認情況下,Stored Fields是為false的,ElasticSearch 會存儲整個文件的 JSON source。

哪些情形下需要顯式的指定store屬性呢?大多數情況並不是必須的。從_source中獲取值是快速而且高效的。如果你的文檔長度很長,存儲 _source或者從_source中獲取field的代價很大,你可以顯式的將某些field的store屬性設置為yes。缺點如上邊所說:假設你存 儲了10個field,而如果想獲取這10個field的值,則需要多次的io,如果從Stored Field 中獲取則只需要一次,而且_source是被壓縮過 的。

這個時候你可以指定一些欄位store為true,這意味著這個field的數據將會被單獨存儲(實際上是存兩份,source和 Stored Field都存了一份)。這時候,如果你要求返回field1(store:yes),es會分辨出field1已經被存儲了,因此不會從_source中載入,而是從field1的存儲塊中載入。

Doc_values 本質上是一個序列化的 列式存儲,這個結構非常適用於聚合(aggregations)、排序(Sorting)、腳本(scripts access to field)等操作。而且,這種存儲方式也非常便於壓縮,特別是數字類型。這樣可以減少磁碟空間並且提高訪問速度,ElasticSearch 可以將索引下某一個 Document Value 全部讀取到內存中進行操作.

Doc_values是存在磁碟的

在es中text類型欄位默認只會建立倒排索引,其它幾種類型在建立倒排索引的時候還會建立正排索引,當然es是支持自定義的。在這里這個正排索引其實就是Doc Value。

即上文所描述的動態索引

往 es 寫的數據,實際上都寫到磁碟文件里去了,查詢的時候,操作系統會將磁碟文件里的數據自動緩存到 filesystem cache 中去。

es 的搜索引擎嚴重依賴於底層的 filesystem cache ,你如果給 filesystem cache 更多的 內存,盡量讓內存可以容納所有的 idx segment file 索引數據文件,那麼你搜索的時候就 基本都是走內存的,性能會非常高。 性能差距究竟可以有多大?我們之前很多的測試和壓測,如果走磁碟一般肯定上秒,搜索性能 絕對是秒級別的,1秒、5秒、10秒。但如果是走 filesystem cache ,是走純內存的,那麼一 般來說性能比走磁碟要高一個數量級,基本上就是毫秒級的,從幾毫秒到幾百毫秒不等。

那如何才能節約filesystem cache這部分的空間呢?
當寫數據到ES時就要考慮到最小化數據,當一行數據有30幾個欄位,並不需要把所有的數據都寫入到ES,只需要把關鍵的需要檢索的幾列寫入。這樣能夠緩存的數據就會越多。 所以需要控制每台機器寫入的數據最好小於等於或者略大於filesystem cache空間最好。 如果要搜索海量數據,可以考慮用ES+Hbase架構。用Hbase存儲海量數據,然後ES搜索出doc id後,再去Hbase中根據doc id查詢指定的行數據。

當每台機器寫入的數據大於cache os太多時,導致太多的數據無法放入緩存,那麼就可以把一部分熱點數據刷入緩存中。

對於那些你覺得比較熱的、經常會有人訪問的數據,最好做個專門的緩存預熱系統,就是 對熱數據每隔一段時間,就提前訪問一下,讓數據進入 filesystem cache 里去。這樣下 次別人訪問的時候,性能肯定會好很多。

把熱數據和冷數據分開,寫入不同的索引里,然後確保把熱索引數據刷到cache里。

在ES里最好不要用復雜的關聯表的操作。當需要這樣的場景時,可以在創建索引的時候,就把數據關聯好。比如在mysql中需要根據關聯ID查詢兩張表的關聯數據:select A.name ,B.age from A join B where A.id = B.id,在寫入ES時直接去把相關聯數據放到一個document就好。

es 的分頁是較坑的,為啥呢?舉個例子吧,假如你每頁是 10 條數據,你現在要查詢第 100 頁,實際上是會把每個 shard 上存儲的前 1000 條數據都查到1個協調節點上,如果你有個 5 個 shard,那麼就有 5000 條數據,接著協調節點對這 5000 條數據進行一些合並、處理,再獲取到 最終第 100 頁的 10 條數據。
分布式的,你要查第 100 頁的 10 條數據,不可能說從 5 個 shard,每個 shard 就查 2 條數據, 最後到協調節點合並成 10 條數據吧?你必須得從每個 shard 都查 1000 條數據過來,然後根據 你的需求進行排序、篩選等等操作,最後再次分頁,拿到裡面第 100 頁的數據。你翻頁的時 候,翻的越深,每個 shard 返回的數據就越多,而且協調節點處理的時間越長,非常坑爹。所 以用 es 做分頁的時候,你會發現越翻到後面,就越是慢。

我們之前也是遇到過這個問題,用 es 作分頁,前幾頁就幾十毫秒,翻到 10 頁或者幾十頁的時 候,基本上就要 5~10 秒才能查出來一頁數據了。

解決方案嗎?
1)不允許深度分頁:跟產品經理說,你系統不允許翻那麼深的頁,默認翻的越深,性能就越差;
2)在APP或者公眾號里,通過下拉來實現分頁,即下拉時獲取到最新頁,可以通過scroll api來實現;
scroll 會1次性給你生成所有數據的1個快照,然後每次滑動向後翻頁就是通過游標 scroll_id 移動獲取下一頁,性能會比上面說的那種分頁性能要高很多很 多,基本上都是毫秒級的。 但是,唯1的缺點就是,這個適合於那種類似微博下拉翻頁的,不能隨意跳到任何一頁的場 景。也就是說,你不能先進到第 10 頁,然後去第 120 頁,然後再回到第 58 頁,不能隨意亂跳 頁。所以現在很多APP產品,都是不允許你隨意翻頁的,也有一些網站,做的就是你只能往 下拉,一頁一頁的翻。
初始化時必須指定 scroll 參數,告訴 es 要保存此次搜索的上下文多長時間。你需要確保用戶不會持續不斷翻頁翻幾個小時,否則可能因為超時而失敗。
除了用 scroll api ,也可以用 search_after 來做, search_after 的思想是使用前一頁的結果來幫助檢索下一頁的數據,顯然,這種方式也不允許你隨意翻頁,你只能一頁一頁往後 翻。初始化時,需要使用一個唯1值的欄位作為 sort 欄位。

C. 請高手幫我 寫一段批處理腳本,能在某一個網頁批量輸入關鍵詞,批量搜索。我只有20分。謝謝了。

這個問題比較復雜,首先,搜索引擎分為多種,3721網路實名,網路,GOOGLE,要看你在哪裡搜索,而關鍵詞么,和你網頁的中文實名有關,一般來說,好的關鍵詞都被人花錢注冊了,如果你不花錢注冊的話,就算能搜索到,排名也是比較靠後滴

D. 開源搜索的20款開源搜索引擎系統

一些開源搜索引擎系統介紹,包含開源Web搜索引擎和開源桌面搜索引擎。
Sphider
Sphider是一個輕量級,採用PHP開發的web spider和搜索引擎,使用mysql來存儲數據。可以利用它來為自己的網站添加搜索功能。Sphider非常小,易於安裝和修改,已經有數千網站在使用它。
RiSearch PHP
RiSearch PHP是一個高效,功能強大的搜索引擎,特別適用於中小型網站。RiSearch PHP非常快,它能夠在不到1秒鍾內搜索5000-10000個頁面。RiSearch是一個索引搜索引擎,這就意味畢模寬著它先將你的網站做索引並建立一個資料庫來存儲你網站所有頁面的關鍵詞以便快速搜索。Risearch是全文搜索引擎腳本,它把所有的關鍵詞都編成一個文檔索引除了配置文件裡面的定義排除的關鍵詞。 RiSearch使用經典的反向索引演算法(與大型的搜索引擎相同),這就是為什麼它會比其它搜索引擎快的原因。
PhpDig
PhpDig是一個採用PHP開發的Web爬蟲和搜索引擎。通過對動態和靜態頁面進行索引建立一個詞彙表。當搜索查詢時,它將按一定的排序規則手亮顯示包含關鍵字的搜索結果頁面。PhpDig包含一個模板系統並能夠索引PDF,Word,Excel,和PowerPoint文檔。PHPdig適用於專業化更強、層次更深的個性化搜索引擎,利用它打造針對某一領域的垂直搜索引擎是最好的選擇。
OpenWebSpider
OpenWebSpider是一個開源多線程Web Spider(robot:機器人,crawler:爬蟲)和包含許多有趣功能的搜索引擎。
Egothor
Egothor是一個用Java編寫的開源而高效的全文本搜索引擎。藉助Java的跨平台特性,Egothor能應用於任何環境的應用,既可配置為單獨的搜索引擎,又能用於你的應用作為全文檢索之用。
Nutch
Nutch 是一個開源Java 實現的搜索引擎。它提供了我們運行自己的搜索引擎所需的全部工具。包括全文搜索和Web爬蟲。
Lucene
Apache Lucene是一個基於Java全文搜索引擎,利用它可以輕易地為Java軟體加入全文搜尋功能。Lucene的最主要工作是替文件的每一個字作索引,索引讓搜尋的效率比傳統的逐字比較大大提高,Lucen提供一組解讀,過濾,分析文件,編排和使用索引的API,它的強大之處除了高效和簡單外,是最重要的是使使用者可以隨時應自己需要自訂其功能。
Oxyus
是一個純java寫的web搜索引擎。
BDDBot
BDDBot是一個簡單的易於理解和使用的搜索引擎。它目前在一個文本文件(urls.txt)列出的URL中爬行,將結果保存在一個資料庫中。它也支持一個簡單的Web伺服器,這個伺服器接受來自瀏覽器的查詢並返回響應結果。它碼笑可以方便地集成到你的Web站點中。
Zilverline
Zilverline是一個搜索引擎,它通過web方式搜索本地硬碟或intranet上的內容。Zilverline可以從PDF, Word, Excel, Powerpoint, RTF, txt, java, CHM,zip, rar等文檔中抓取它們的內容來建立摘要和索引。從本地硬碟或intranet中查找到的結果可重新再進行檢索。Zilverline支持多種語言其中包括中文。
XQEngine
XQEngine用於XML文檔的全文本搜索引擎。利用XQuery做為它的前端查詢語言。它能夠讓你查詢XML文檔集合通過使用關鍵字的邏輯組合。有點類似於Google與其它搜索引擎搜索HTML文檔一樣。XQEngine只是一個用Java開發的很緊湊的可嵌入的組件。
MG4J
MG4J可以讓你為大量的文檔集合構建一個被壓縮的全文本索引,通過使內插編碼(interpolative coding)技術。
JXTA Search
JXTA Search是一個分布式的搜索系統。設計用在點對點的網路與網站上。
YaCy
YaCy基於p2p的分布式Web搜索引擎。同時也是一個Http緩存代理伺服器。這個項目是構建基於p2p Web索引網路的一個新方法。它可以搜索你自己的或全局的索引,也可以Crawl自己的網頁或啟動分布式Crawling等。
Red-Piranha
Red-Piranha是一個開源搜索系統,它能夠真正」學習」你所要查找的是什麼。Red-Piranha可作為你桌面系統(Windows,Linux與Mac)的個人搜索引擎,或企業內部網搜索引擎,或為你的網站提供搜索功能,或作為一個P2P搜索引擎,或與wiki結合作為一個知識/文檔管理解決方案,或搜索你要的RSS聚合信息,或搜索你公司的系統(包括SAP,Oracle或其它任何Database/Data source),或用於管理PDF,Word和其它文檔,或作為一個提供搜索信息的WebService或為你的應用程序(Web,Swing,SWT,Flash,Mozilla-XUL,PHP, Perl或c#/.Net)提供搜索後台等等。
LIUS
LIUS是一個基於Jakarta Lucene項目的索引框架。LIUS為Lucene添加了對許多文件格式的進行索引功能如:Ms Word,Ms Excel,Ms PowerPoint,RTF,PDF,XML,HTML,TXT,Open Office序列和JavaBeans.針對JavaBeans的索引特別有用當我們要對資料庫進行索引或剛好用戶使用持久層ORM技術如:Hibernate,JDO,Torque,TopLink進行開發時。
Apache Solr
Solr是一個高性能,採用Java5開發,基於Lucene的全文搜索伺服器。文檔通過Http利用XML加到一個搜索集合中。查詢該集合也是通過 http收到一個XML/JSON響應來實現。它的主要特性包括:高效、靈活的緩存功能,垂直搜索功能,高亮顯示搜索結果,通過索引復制來提高可用性,提供一套強大Data Schema來定義欄位,類型和設置文本分析,提供基於Web的管理界面等。
Paoding
Paoding中文分詞是一個使用Java開發的,可結合到Lucene應用中的,為互聯網、企業內部網使用的中文搜索引擎分片語件。 Paoding填補了國內中文分詞方面開源組件的空白,致力於此並希翼成為互聯網網站首選的中文分詞開源組件。 Paoding中文分詞追求分詞的高效率和用戶良好體驗。
Carrot2
Carrot2是一個開源搜索結果分類引擎。它能夠自動把搜索結果組織成一些專題分類。Carrot2提供的一個架構能夠從各種搜索引擎(YahooAPI、GoogleAPI、MSN Search API、eTools Meta Search、Alexa Web Search、PubMed、OpenSearch、Lucene index、SOLR)獲取搜索結果。
Regain
regain是一款與Web搜索引擎類似的桌面搜索引擎系統,其不同之處在於regain不是對Internet內容的搜索,而是針對自己的文檔或文件的搜索,使用regain可以輕松地在幾秒內完成大量數據(許多個G)的搜索。Regain採用了Lucene的搜索語法,因此支持多種查詢方式,支持多索引的搜索及基於文件類型的高級搜索,並且能實現URL重寫及文件到HTTP的橋接,並且對中文也提供了較好的支持。
Regain提供了兩種版本:桌面搜索及伺服器搜索。桌面搜索提供了對普通桌面計算機的文檔與區域網環境下的網頁的快速搜索。伺服器版本主要安裝在Web伺服器上,為網站及區域網環境下的文件伺服器進行搜索。

E. 如何用 Node.js 和 Elasticsearch 構建搜索引擎

安裝 Elasticsearch

Elasticsearch 受Apache 2許可證保護,可以被下載,使用,免費修改。安裝Elasticsearch 之前你需要先確保在你的電腦上安裝了Java Runtime Environment (JRE) ,Elasticsearch 是使用java實現的並且依賴java庫運行。你可以使用下面的命令行來檢測你是否安裝了java

推薦使用java最新的穩定版本(寫這篇文章的時候是1.8)。你可以在找到在你系統上安裝java的指導手冊。

接下來是下載最新版本的Elasticsearch (寫這篇文章的時候是2.3.5),去下載ZIP 文件。Elasticsearch 不需要安裝,一個zip文件就包含了可在所有支持的系統上運行的文件。解壓下載的文件,就完成了。有幾種其他的方式運行Elasticsearch ,比如:獲得TAR 文件或者為不同Linux發行版本的包。

如果你使用的是Mac操作系統並且安裝了,你就可以使用這行命令安裝Elasticsearch brew install elasticsearch.Homebrew 會自動添加executables 到你的系統並且安裝所需的服務。它也可以使用一行命令幫你更新應用:brew upgrade elasticsearch.

想在Windows上運行Elasticsearch ,可以在解壓的文件夾里,通過命令行運行binelasticsearch.bat 。對於其他系統,可以從終端運行 ./bin/elasticsearch.這時候,Elasticsearch 就應該可以在你的系統上運行了。

就像我之前提到的,你可以使用Elasticsearch的幾乎所有的操作,都可以通過RESTful APIs完成。Elasticsearch 默認使用9200 埠。為了確保你正確的運行了Elasticsearch。在你的瀏覽器中打開http://localhost:9200/ ,將會顯示一些關於你運行的實例的基本信息。

圖形用戶界面

Elasticsearch不須圖形用戶界面,只通過REST APIs就提供了幾乎所有的功能。然而如果我不介紹怎麼通過APIs和 Node.js執行所有所需的操作,你可以通過幾個提供了索引和數據的可視化信息GUI工具來完成,這些工具甚至含有一些高水平的分析。

, 是同一家公司開發的工具, 它提供了數據的實時概要,並提供了一些可視化定製和分析選項。Kibana 是免費的。

還有一些是社區開發的工具,如,, 甚至谷歌瀏覽器的擴展組件.這些工具可以幫你在瀏覽器中查看你的索引和數據,甚至可以試運行不同的搜索和匯總查詢。所有這些工具提供了安裝和使用的攻略。

創建一個Node.js環境

彈性搜索為Node.js提供一睜信個官方模塊,稱為elasticsearch。首先,你需要添加模塊到你的工程目錄下,並且保存依賴以備以後使用。

然後,你可以在腳本里導入模塊,如下所示:

最終,你需要創建客戶端來處理與彈性搜索的通訊。在這種情況下,我假設你正在運行彈性搜索的本地機器IP地址是127.0.0.1,埠是9200(默認設置)。

注意:這篇導讀的所有源代碼都可以在GitHub下載查看。最簡單的查看方式是在你的PC機上克隆倉庫,並且從那裡運行示例代碼:

獲取短語推薦的時候,採用與上文相同的格式並替換推薦器的類型欄位即可。如下的例子中,返回數據將與上例格式相同。

F. 怎麼像百度,搜狗一樣做一個搜索引擎

做一個搜素引擎牽扯的東西太多了,一人無法完成,需要一個強大的技術團隊支持。
當下好多搜素引擎,多半是聚合搜素,就是利用技術,將網路、搜狗、360、必應等搜索引擎的搜索結果展現在一起。
做一個搜索引擎有點困難,但首凱雹是做聚合搜索還是有戲的,你可以了解一下。
網路發展這么久在中國是已經超過谷歌了,谷歌搜索很強大,但是有者帆利有弊吧,利就是搜索能力很強大,弊就是搜索范圍太廣泛會涉及一些不好的內容板塊。
好的搜索引擎,就是用戶可以通過檢索相關關鍵詞來孫耐獲取解決問題的方式方法。

G. 有哪些很強的聚合搜索引擎

1、Instya搜索引擎。

Instya允許一鍵搜索多個網站,這些網站包括搜索引擎結果,答案網站,購物網站等。Instya在一個地方提供所有結果,可以獲得更全面和相關的查詢結果。


2、WebCrawler搜索引擎。

WebCrawler是InfoSpace,LLC提供的搜索引擎聚合服務。它顯示來自Google和Yahoo搜索引擎絕老的搜索結果。使用Metasearch引擎,可以搜索Web,圖像,視頻和新聞。它還會在主頁上顯示特色搜索,以幫助入門。


3、Info搜索引擎。

Info搜索網路提供來自各種搜索引擎的搜索結果,例如Google,Yahoo,Ask,OpenDirectory,Yandex,Bing等。它允許體驗最佳的網路,並獲得更多相關結果。可以搜索網路,主題,商店,工作,圖像,新聞,視頻等。


4、Ixquick搜索引擎。

Ixquick是一個尊重隱私的元搜索引擎,它調用google搜索引擎的結果,而不收集任何私人信息。可以使用此服務搜索網路,圖像和視頻,高級搜索可用,提供更詳細的結果。


5、Dogpile搜索引擎。

Dogpile允許獲取由各種大牌搜索引擎提供的搜索結果。該服務由InfoSpace,LLC提供。使用此服務,可以搜索Web,圖像,視頻,新聞和白亂李頁,Fetches展示最受歡迎的搜索。


6、Mamma搜索引擎。

Mamma是EmpresarioInc.提供的搜索聚合服務,允許搜索網路,新聞,圖像,本地內容和推薦文章,它使用位置信息為查詢提供更好的本地搜索結果。


7、Scou搜索引擎。

Scour提供從各嘩宏遲種搜索引擎收集的網路,圖像,視頻,本地和商業搜索結果,Scour.com成立於2007年,由Internext媒體運營,該服務的主要任務是為網路搜索提供最有效和最相關的結果。

H. 如何聚合多個搜索引擎的結果

用chrome的右橡毀唯鍵搜插件。有自定義搜索串梁培和組合功能,可把多個搜索串放到一個組合里。
把關鍵詞輸入插件的搜索框,點組合名稱,隨後彈出的多個標簽頁就是各個網站的搜索結果。
但有些余物網站的搜索串不好提取

I. 現在的聚合搜索引擎比較強大的除了易友軒的soulord,還有雨林木風的115,還有比較好用的嗎

115助手是由雨林木風推出的一款綠色免費的輕量級電腦應用和網路輔助軟體,它聚集了多種計算機操作的日常實用個人必備功能(如程序快速啟動、日程記事、鬧鈴、截屏、定時關機等),並與115.com多樣化的個性網路服務(如115聚合搜索引擎入口、天氣預報查詢、郵箱入口、收藏夾等)緊密結合,界面清新實用,操作簡易,設計人性智能,能大幅減少重復操作,更難能可貴的是系統資源佔用極少。115助手,上網的真正好助手,您的fastStart!
115助手目前已實現八大功能:
1、115聚合搜索入口
只要您在助手頂部的搜索框里輸入關鍵詞,輕松點擊,直達115聚合搜索結果,方便快捷;
2、豐富多彩的互聯網應用工具
郵箱便捷登陸入口,114la酷站大全,快速充值入口,股票查詢,實用查詢工具集……還將不斷加入新元素!外網IP顯示,IP歸屬地等功能均已本地化;
3、程序快速啟動
支持把常用軟體的快捷方式簡單拖曳到程序主窗口,清爽,讓您不在雜亂繁多的桌面程序圖標中眼花繚亂;
4、備忘枝鄭日程設置與提醒
日歷/日程記事安排功能,您可方便定製日程安排提醒,避免錯過重要事務,支持提前提醒和重復提醒,並有詳細的國內外節日顯示與各式萬年歷,彌補Windows日期顯示缺憾,把農歷搬回家;
5、鬧鈴時鍾,多重提醒
多種時鍾樣式,自動網路對時。自定義鈴聲下能實用一個或多個鬧鍾實現多重提醒猛臘頌;
6、天氣定製,出行必須
為您提供准確詳細的氣象服務。您可以按所在城市獨立定製天氣預報,據此安排旅遊出行,假期好幫手;
7、網路美圖,一鍵享受
可方便地幫助您即時截取任意窗口顯示內容。操作過程一鍵搞定;
8、定時關機,定時休眠
能設置定時休眠與定時關機,支持關機前提前提醒,電腦工作,您休息。
115網盤
1.什麼是115網路U盤?↑返回頂部
115網路U盤是廣東雨林木風計算機科技有限公司(以下簡稱:雨林木風)最新推出具有存儲容量大、高速、穩定、安全等特點的網路免費存儲服務。通過網路,您可以體驗到她強大的網路數據存儲和共享功能;您可以快速方便地將自已的照片、DV、影視、音樂、游戲、文檔等各種格式的電子文件和數據共享給朋友們,讓他們一起分享您的心情。我們合理的文檔、相冊、音樂專輯等專項分類存儲,局野也能給您帶來極大的方便。 (點擊了解更多 )
2.115網路U盤提供的服務有哪些?↑返回頂部
注冊用戶目前制定的可使用空間大小為5G(含永久空間1G,臨時空間4G),單個文件目前限傳大小為400M(支持斷點續傳的大文件上傳數日後推出)。
匿名用戶上傳空間無限,有效期限為7日,單個文件目前限傳大為100M。
*請注意:注冊用戶目前擁有1G永久空間,匿名空間和臨時空間文件自上傳7日後,若無注冊登錄到臨時空間管理中心續期,系統將自動將其刪除。
*請注意:以上為115網路U盤測試期試行規則。正式版將在各方面測試完善後上線,我們承諾正式版方案運營後,將提供給用戶更優質的在線存儲服務;同時會保留測試版期間會員數據及上傳數據,請您放心使用。