當前位置:首頁 » 網頁前端 » 可視化web日誌分析工具
擴展閱讀
webinf下怎麼引入js 2023-08-31 21:54:13
堡壘機怎麼打開web 2023-08-31 21:54:11

可視化web日誌分析工具

發布時間: 2022-06-23 06:45:11

❶ 大數據分析工具都有哪些

思邁特軟體Smartbi數據分析平台:定位為一站式滿足所有用戶全面需求場景的大數據分析平台。它融合了BI定義的所有階段,對接各種業務資料庫、數據倉庫和大數據分析平台,進行加工處理、分析挖掘和可視化展現;滿足所有用戶的各種數據分析應用需求,如大數據分析、可視化分析、探索式分析、企業報表平台、應用分享等等。
大數據分析的特點有以下幾點:第一,數據體量巨大。從TB級別,躍升到PB級別。第二,數據類型繁多,包括網路日誌、視頻、圖片、地理位置信息等等。第三,價值密度低。以視頻為例,連續不間斷監控過程中,可能有用的數據僅僅有一兩秒。第四,處理速度快。最後這一點也是和傳統的數據挖掘技術有著本質的不同。大數據分析軟體讓企業能夠從數據倉庫獲得洞察力,從而在數據驅動的業務環境中提供重要的競爭優勢。
Smartbi是目前國內大數據分析軟體的佼佼者。主打的是企業報表和自助式分析2個特點,最高可以支撐20億數據的秒級呈現,適用於企業中的技術人員、業務人員和數據分析師,可以完全自主的進行探索式分析,軟體在易用性和功能上做的都很不錯,說實話,國內的BI行業由於起步較晚,能做到這個程度的確是下了一番功夫。相較於國外產品而言,Smartbi最大的優勢在於Smartbi自主搭建的實施團隊和服務團隊,強大的服務讓它成為國內首屈一指的商業智能產品。

❷ 如何通過用數據挖掘技術來分析Web網站日誌

1、數據預處理階段根據挖掘的目的,對原始Web日誌文件中的數據進行提取、分解、合並、最後轉換為用戶會話文件。該階段是Web訪問信息挖掘最關鍵的階段,數據預處理包括:關於用戶訪問信息的預處理、關於內容和結構的預處理。

2、會話識別階段該階段本是屬於數據預處理階段中的一部分,這里將其劃分成單獨的一個階段,是因為把用戶會話文件劃分成的一組組用戶會話序列將直接用於挖掘演算法,它的精準度直接決定了挖掘結果的好壞,是挖掘過程中最重要的階段。

3、模式發現階段模式發現是運用各種方法和技術從Web日誌數據中挖掘和發現用戶使用Web的各種潛在的規律和模式。模式發現使用的演算法和方法不僅僅來自數據挖掘領域,還包括機器學習、統計學和模式識別等其他專業領域。

模式發現的主要技術有:統計分析(statistical analysis)、關聯規則(association rules)、聚類(clustering)、歸類(classification)、序列模式(sequential patterns)、依賴關系(dependency)。

(1)統計分析(statistical analysis):常用的統計技術有:貝葉斯定理、預測回歸、對數回歸、對數-線性回歸等。可用來分析網頁的訪問頻率,網頁的訪問時間、訪問路徑。可用於系統性能分析、發現安全漏洞、為網站修改、市場決策提供支持。

(2)關聯規則(association rules):關聯規則是最基本的挖掘技術,同時也是WUM最常用的方法。在WUM中常常用在被訪問的網頁中,這有利於優化網站組織、網站設計者、網站內容管理者和市場分析,通過市場分析可以知道哪些商品被頻繁購買,哪些顧客是潛在顧客。

(3)聚類(clustering):聚類技術是在海量數據中尋找彼此相似對象組,這些數據基於距離函數求出對象組之間的相似度。在WUM中可以把具有相似模式的用戶分成組,可以用於電子商務中市場分片和為用戶提供個性化服務。

(4)歸類(classification):歸類技術主要用途是將用戶資料歸入某一特定類中,它與機器學習關系很緊密。可以用的技術有:決策樹(decision tree)、K-最近鄰居、Naïve Bayesian classifiers、支持向量機(support vector machines)。

(5)序列模式(sequential patterns):給定一個由不同序列組成的集合,其中,每個序列由不同的元素按順序有序排列,每個元素由不同項目組成,同時給定一個用戶指定的最小支持度閾值,序列模式挖掘就是找出所有的頻繁子序列,即子序列在序列集中的出現頻率不低於用戶指定的最小支持度閾值。

(6)依賴關系(dependency):一個依賴關系存在於兩個元素之間,如果一個元素A的值可以推出另一個元素B的值,則B依賴於A。

4、模式分析階段模式分析是Web使用挖掘最後一步,主要目的是過濾模式發現階段產生的規則和模式,去除那些無用的模式,並把發現的模式通過一定的方法直觀的表現出來。由於Web使用挖掘在大多數情況下屬於無偏向學習,有可能挖掘出所有的模式和規則,所以不能排除其中有些模式是常識性的,普通的或最終用戶不感興趣的,故必須採用模式分析的方法使得挖掘出來的規則和知識具有可讀性和最終可理解性。常見的模式分析方法有圖形和可視化技術、資料庫查詢機制、數理統計和可用性分析等。

❸ 如何輕松實現日誌可視化

方法/步驟 dell網站下載dset系統日誌收集工具。盡量使用最新版本的dset工具。 雙擊開始運行,下一步。這個不是安裝程序哦。 點NEXT接受協議後,您可以看到如下的這個界面:1.第一項,可以創建日誌信息文件,將這個文件發郵件給戴爾技術工程師,或者您自行分析,可以幫助了解機器的運行狀態。2.第二個選項安裝DSET軟體。3.第三個選項獲取日誌並且清除原有記錄日誌,可以解決狀態燈不正常但機器使用正常的情況。 選擇next(只選擇第一個選項,其它的SKIP的都不要選擇,否則會無法抓取到日誌)。 運行後會看到如下界面,大約幾分鍾至十幾分鍾的時間。 日誌收集後產生的文件名和保存的路徑如下圖紅色部分.也可以通過搜索dset*.zip查找。 獲得機器的日誌壓縮文件,解壓密碼為「dell」將此文件解壓後,可以看到詳細的硬體、系統信息。

❹ 網站分析工具GrowingIO免費試用期後,會限制功能嗎

隨著移動互聯網時代的興起和數據量的大規模爆發,越來越多的互聯網企業開始重視數據的質量。在我創業的這一年裡,接觸了 200 多家創業型公司,發現如今的企業對數據的需求已經不僅僅局限於簡單的 PV、UV,而是更加重視用戶使用行為數據的相關分析。

做數據的同學都知道,在數據分析的道路上,數據採集是重中之重。數據採集的質量直接決定了你的分析是否准確。而隨著企業對數據的要求越來越高,埋點技術也被推到了「風口浪尖」。所謂,埋的好是高手,埋不好反倒傷了自己。而在數據採集的道路上大家經常會遇到各種各樣的問題,今天我們就來分析一下埋點是否需要。

首先我把數據採集的問題歸結為三類:
1、不知道怎麼采,包括採集什麼數據以及用什麼技術手段採集;
2、埋點混亂,出現埋錯、漏埋這樣的問題;
3、數據團隊和業務工程團隊配合困難,往往產品升級的優先順序大於數據採集的優先順序。
上面這三類問題讓數據團隊相當痛苦,進而幻想棄用數據採集,而嘗試新方案後,進而迎來的是更大的失望。這里我對這三類問題的現狀及應對之策做一下分析。

► 不知道怎麼采

一般創業公司的數據採集,分為三種方式:

第一種直接使用友盟、網路統計這樣的第三方統計工具,通過嵌入 App SDK 或 JS SDK,來直接查看統計數據。這種方式的好處是簡單、免費,因此使用非常普及。對於看一些網站訪問量、活躍用戶量這樣的宏觀數據需求,基本能夠滿足。

但是,對於現在一些涉及訂單交易類型的產品,僅僅宏觀的簡單統計數據已經不能滿足用戶的需求了,他們更加關注一些深度的關鍵指標分析,例如:用戶渠道轉化、新增、留存、多維度交叉分析等。這個時候才發現第三方統計工具很難滿足對數據的需求,而出現這樣的問題並不是因為工具的分析能力薄弱,而是因為這類工具對於數據採集的不完整。 通過這種方式 SDK 只能夠採集到一些基本的用戶行為數據,比如設備的基本信息,用戶執行的基本操作等。但是服務端和資料庫中的數據並沒有採集,一些提交操作,比如提交訂單對應的成本價格、折扣情況等信息也沒有採集,這就導致後續的分析成了「巧婦難為無米之炊」。

通過客戶端 SDK 採集數據還有一個問題就是經常覺得統計不準,和自己的業務資料庫數據對不上,出現丟數據的情況。這是前端數據採集的先天缺陷,因為網路異常,或者統計口徑不一致,都會導致數據對不上。

第二種是直接使用業務資料庫做統計分析。一般的互聯網產品,後端都有自己的業務資料庫,裡面存儲了訂單、用戶注冊信息等數據,基於這些數據,一些常用的統計分析都能夠搞定。這種方式天然的就能分析業務數據,並且是實時、准確的。

但不足之處有兩點:一是業務資料庫在設計之初就是為了滿足正常的業務運轉,給機器讀寫訪問的。為了提升性能,會進行一些分表等操作。一個正常的業務都要有幾十張甚至上百張數據表,這些表之間有復雜的依賴關系。這就導致業務分析人員很難理解表含義。即使硬著頭皮花了兩三個月時間搞懂了,隔天工程師又告訴你因為性能問題拆表了,你就崩潰了。另一個不足之處是業務數據表的設計是針對高並發低延遲的小操作,而數據分析常常是針對大數據進行批量操作的,這樣就導致性能很差。

第三種是通過 Web 日誌進行統計分析。這種方式相較於第二種,完成了數據的解耦,使業務數據和統計分析數據相互分離。然而,這種方式的問題是「目的不純」。Web 日誌往往是工程師為了方便 Debug 順便搞搞,這樣的日誌對於業務層面的分析,常常「缺斤少兩」。並且從列印日誌到處理日誌再到輸出結果,整個過程很容易出錯,我在網路就花了幾年的時間解決這一問題。

所以,以上三種方式雖然都多多少少解決了一部分數據採集的問題,但又都解決的不徹底。

► 埋點混亂

聊完採集方法,再來說說關於埋點的管理。我曾經接觸了一家做了七八年的老牌互聯網公司,他們的數據採集有 400 多個點。每次數據產品經理提出數據採集的需求後,工程師就會按照要求增加埋點,然後交給數據產品經理去驗證。數據產品經理在試用的時候也感覺不到異常,可等產品上線之後,才發現埋的不對,再進行升級發版操作,整個過程效率極低。我們發現,一個公司發展到了一定程度,沒有專人去負責埋點管理工作,數據採集就完全沒有準確性可據採集就完全沒有準確性可言。甚至有時產品上線之後,才發現數據採集的工作沒有做,也就是漏埋了。

於是數據團隊又開始幻想,既然埋點這么容易出問題,有沒有可能不埋點?這就像尋找可以祈求風調雨順的神靈。

在 2010 年,網路 MP3 團隊曾經做了一個叫 ClickMonkey 的產品,只要頁面上嵌入 SDK,就可以採集頁面上所有的點擊行為,然後就可以繪制出用戶點擊的熱力圖,這種方式對於一些探索式的調研還是比較有用的。到了2013 年,國外有家數據分析公司 Heap Analytics,把這種方式更近一步,將 App 的操作盡量多的採集下來,然後通過界面配置的方式對關鍵行為進行定義,這樣便完成了所謂的「無埋點」數據採集。使用這種方案,必須在產品中嵌入 SDK,等於做了一個統一的埋點,所以「無埋點」的叫法實際上是「全埋點」的代名詞。

另外,這種方式同樣也只能採集前端數據,後端伺服器和資料庫中的數據,依舊是無可奈何的。並且,即便進行前端數據採集,也無法深入到更細粒度。比如提交訂單操作,訂單運費、成本價格之類的維度信息,都丟失掉了,只剩下「提交」這一個行為類型。

對於非技術人員,容易被這種方式的名稱和直接優勢所吸引,但很快又會發現許多深度數據分析需求無法直接滿足,進而有種被忽悠的感覺,會感到失望。其實不止是非技術人員,即使是技術人員,也都會讓我解釋一下「可視化埋點」的原理,說明「無埋點」真是個有迷惑性又不甚清晰的概念,難以細究。

這里說一下關鍵點:一是事先在產品上埋一個 SDK,二是通過可視化的方式,生成配置信息,也就是事件名稱之類的定義,三是將採集的數據按照配置重命名,進而就能做分析了。

► 數據團隊和業務工程團隊的配合問題

最後,我們再聊一聊數據採集中遇到的非技術性問題。一般來說,公司到了 A 輪以後,都會有專門的數據團隊或者兼職數據人員,對公司的一些業務指標負責。即使為了拿到這些基本的業務指標,一般也要工程團隊去配合做一些數據採集工作。這個時候雷軍的「快」理念就起到作用了,天下武功唯快不破。於是所有事情都要給產品迭代升級讓路,快的都沒有時間做數據採集了。殊不知沒有數據指標的支撐,又怎麼衡量這個功能升級是不是合理的呢?互聯網產品並不是功能越多就越好,產品是否經得起用戶考驗,還是要基於數據說話的,然後學習新知識,用於下一輪的迭代。

數據團隊和業務工程團隊是平級的團隊,而數據團隊看起來總是給業務工程團隊增加麻煩事兒,似乎也不能直接提升工程團隊的 KPI,所以就導致需求不被重視,總是被更高優先順序的事情擠掉,數據的事情難有進展。

解決之道

前面給大家拋出了數據採集中常見的三類問題,下面我們來看一下應對之道。

對於不知道數據怎麼採的問題,首先從意識上要重視數據採集工作。數據的事情歸結起來就兩點:數據採集和數據分析。可不能只看到數據分析而忽略了數據採集。事實上我個人在網路做數據的幾年裡,最大的心得就是數據這個事情要做好,最重要的是數據源,數據源收集得好,就成功了一大半。數據採集的基本原則是全和細。全就是把多種數據源都進行採集,而不只是客戶端的用戶數據。細就是強調多維度,把事件發生的一系列維度信息,比如訂單運費、成本價格等,盡量多的記錄下來,方便後續交叉分析。

其次,要有一個數據架構師,對數據採集工作負責,每次數據採集點的增加或變更,都要經過系統化的審核管理,不能順便搞搞。最後,我這里要推薦 Event 數據模型(有興趣的可閱讀:數據模型 | Sensors Analytics 使用手冊),針對用戶行為數據,簡化成一張寬表,將用戶的操作歸結為一系列的事件。

對於埋點混亂的問題,前面提到的數據架構師的角色,要對這塊的管理負責。如果前面完成對 Event 的梳理,這里的埋點就會清晰很多。另外還要推薦盡量從後端進行埋點,這樣便無需多客戶端埋點了。當然,如果有行為只在客戶端發生,還是要在客戶端進行埋點的。對於業務復雜的情況,只有負責人還不夠。目前我們神策分析針對這個問題,推出了埋點管理功能,對於每個採集點的數據收集情況,都能夠做到全盤監控,並且可以針對一些無效採集點進行禁用。總之是希望把這個問題盡量好的解決掉。

對於數據團隊和工程團隊的配合問題,我這里是想說給創業公司的創始人聽的。兩個平行部門間的推動,是很難的。數據的事情一定要自上而下的推動,也就是創始人一定要重視數據,把數據需求的優先順序提升,這樣在項目排期時,能夠把數據的需求同時做了。我們知道兩軍對戰,情報收集工作的重要性。做產品也是一樣,數據收集工作的重要性不言而喻。

❺ 如何搭建日誌監控系統

ELK(ElasticSearch, Logstash, Kibana)搭建實時日誌分析平台(開源實時日誌分析ELK平台部署)

日誌主要包括系統日誌、應用程序日誌和安全日誌。系統運維和開發人員可以通過日誌了解伺服器軟硬體信息、檢查配置過程中的錯誤及錯誤發生的原因。經常分析日誌可以了解伺服器的負荷,性能安全性,從而及時採取措施糾正錯誤。

通常,日誌被分散的儲存不同的設備上。如果你管理數十上百台伺服器,你還在使用依次登錄每台機器的傳統方法查閱日誌。這樣是不是感覺很繁瑣和效率低下。當務之急我們使用集中化的日誌管理,例如:開源的syslog,將所有伺服器上的日誌收集匯總。

集中化管理日誌後,日誌的統計和檢索又成為一件比較麻煩的事情,一般我們使用grep、awk和wc等Linux命令能實現檢索和統計,但是對於要求更高的查詢、排序和統計等要求和龐大的機器數量依然使用這樣的方法難免有點力不從心。

開源實時日誌分析ELK平台能夠完美的解決我們上述的問題,ELK由ElasticSearch、Logstash和Kiabana三個開源工具組成。官方網站:

 Elasticsearch是個開源分布式搜索引擎,它的特點有:分布式,零配置,自動發現,索引自動分片,索引副本機制,restful風格介面,多數據源,自動搜索負載等。

 Logstash是一個完全開源的工具,他可以對你的日誌進行收集、分析,並將其存儲供以後使用(如,搜索)。

 kibana也是一個開源和免費的工具,他Kibana可以為 Logstash 和 ElasticSearch 提供的日誌分析友好的 Web 界面,可以幫助您匯總、分析和搜索重要數據日誌。 工作原理如下所示:

在需要收集日誌的所有服務上部署logstash,作為logstash agent(logstash shipper)用於監控並過濾收集日誌,將過濾後的內容發送到logstash indexer,logstash indexer將日誌收集在一起交給全文搜索服務ElasticSearch,可以用ElasticSearch進行自定義搜索通過Kibana 來結合自定義搜索進行頁面展示。

四大組件:

Logstash: logstash server端用來搜集日誌;

Elasticsearch: 存儲各類日誌;

Kibana: web化介面用作查尋和可視化日誌;

Logstash Forwarder: logstash client端用來通過lumberjack 網路協議發送日誌到logstash server;

❻ 日誌分析平台哪家好呢袋鼠雲日誌分析服務和同行企業相比怎麼樣

具體要看企業需求,也可以倒過來先看看他們能為企業做什麼,是不是你們想要的。那麼袋鼠雲日誌分析能為企業做什麼?
1)幫助用戶進行海量日誌集中採集、管理、分析,
產品可根據客戶日誌內容及需求快速抽象實際使用場景,以獨立應用、儀表盤、告警等方式呈現,幫助企業完成業務監控分析、異常定位等,從而提升企業故障發現率、降低企業運維成本。
2)同時響應國家政策,滿足網路安全法律法規(網路日誌必須保存6個月以上)。
3)降低企業客戶直接使用ELK開源產品的部署和使用成本(很大一部分群體 都接觸過ELK,能明白配置、維護的學習成本)。
真實案例:某銀行故障處理,需在機房排隊等候,然後逐個系統排查、定位,通常需花費一下午或更長時間,通過雲日誌平台集中對日誌進行分析,配置對應可視化監控場景後,故障處理僅需幾分鍾或更短時間,極大提升故障發現率,及運維效率。
區分對應的用戶群體,針對性介紹,有的客戶關注日誌管理,那就著重介紹我們的可視化配置採集、數據源管理,有的客戶關注日誌分析、業務監控,就針對性介紹我們的數據解析、監控告警、應用生成過程,雲日誌並非什麼都能做,也不能夠什麼都去做,找到對應的客戶、對應的訴求,這個階段不求大而全,若是有多個客戶提及而確實缺乏的,再帶回來考量;
袋鼠雲雲日誌較各類型競品是有差異的:
1)ELK類開源產品:配置、維護成本極高,功能單一,性能無法保障,雲日誌是一款相對成熟的商業化產品,配置均為可視化界面方式,提供標准數據自動解析,應用場景模版,且上層應用為企業服務過程中針對性的解決方案,如監控告警、許可權管理、數據源管理、日誌投遞、數據脫敏等等,以及性能方面經過金融級客戶環境歷練可承載TB級別數據量。
2)日誌易國內專注型產品:功能層面大同小異(運維行業ITOA方面做過更多探索,實際客戶案例下我們會顯弱勢,數據可視化是日誌易一弱點),可著重介紹公司整體能力,數據中台架構能力、數據可視化案例及能力支撐。
3)阿里雲等雲平台旗下日誌產品:該類型產品多為管道性質,在數據採集轉發、不同渠道數據源接收的能力上較強,價格低廉,但難以滿足整體的日誌分析平台需求,上層應用匱乏,雲日誌是完整的日誌分析平台,提供數據集成—>清洗、解析—>上層應用搭建,完整的解決方案。
4)Splunk之類大外企:功能強大,行業影響力很深,不能硬剛,外企在中國市場靈活度不夠,無法針對國內企業實際情況做相應調整,且價格昂貴。

❼ 常見的大數據分析工具有哪些

大數據分析的前瞻性使得很多公司以及企業都開始使用大數據分析對公司的決策做出幫助,而大數據分析是去分析海量的數據,所以就不得不藉助一些工具去分析大數據,。一般來說,數據分析工作中都是有很多層次的,這些層次分別是數據存儲層、數據報表層、數據分析層、數據展現層。對於不同的層次是有不同的工具進行工作的。下面小編就對大數據分析工具給大家好好介紹一下。
首先我們從數據存儲來講數據分析的工具。我們在分析數據的時候首先需要存儲數據,數據的存儲是一個非常重要的事情,如果懂得資料庫技術,並且能夠操作好資料庫技術,這就能夠提高數據分析的效率。而數據存儲的工具主要是以下的工具。
1、MySQL資料庫,這個對於部門級或者互聯網的資料庫應用是必要的,這個時候關鍵掌握資料庫的庫結構和SQL語言的數據查詢能力。
2、SQL Server的最新版本,對中小企業,一些大型企業也可以採用SQL Server資料庫,其實這個時候本身除了數據存儲,也包括了數據報表和數據分析了,甚至數據挖掘工具都在其中了。
3、DB2,Oracle資料庫都是大型資料庫了,主要是企業級,特別是大型企業或者對數據海量存儲需求的就是必須的了,一般大型資料庫公司都提供非常好的數據整合應用平台;
接著說數據報表層。一般來說,當企業存儲了數據後,首先要解決報表的問題。解決報表的問題才能夠正確的分析好資料庫。關於數據報表所用到的數據分析工具就是以下的工具。
1、Crystal Report水晶報表,Bill報表,這都是全球最流行的報表工具,非常規范的報表設計思想,早期商業智能其實大部分人的理解就是報表系統,不藉助IT技術人員就可以獲取企業各種信息——報表。
2、Tableau軟體,這個軟體是近年來非常棒的一個軟體,當然它已經不是單純的數據報表軟體了,而是更為可視化的數據分析軟體,因為很多人經常用它來從資料庫中進行報表和可視化分析。
第三說的是數據分析層。這個層其實有很多分析工具,當然我們最常用的就是Excel,我經常用的就是統計分析和數據挖掘工具;
1、Excel軟體,首先版本越高越好用這是肯定的;當然對Excel來講很多人只是掌握了5%Excel功能,Excel功能非常強大,甚至可以完成所有的統計分析工作!但是我也常說,有能力把Excel玩成統計工具不如專門學會統計軟體;
2、SPSS軟體:當前版本是18,名字也改成了PASW Statistics;我從3.0開始Dos環境下編程分析,到現在版本的變遷也可以看出SPSS社會科學統計軟體包的變化,從重視醫學、化學等開始越來越重視商業分析,現在已經成為了預測分析軟體。
最後說表現層的軟體。一般來說表現層的軟體都是很實用的工具。表現層的軟體就是下面提到的內容。
1、PowerPoint軟體:大部分人都是用PPT寫報告。
2、Visio、SmartDraw軟體:這些都是非常好用的流程圖、營銷圖表、地圖等,而且從這里可以得到很多零件;
3、Swiff Chart軟體:製作圖表的軟體,生成的是Flash

❽ 做大數據分析一般用什麼工具呢

一、Hadoop

Hadoop是一個能夠對大量數據進行分布式處理的軟體框架。但是 Hadoop 是以一種可靠、高效、可伸縮的方式進行處理的。Hadoop 是可靠的,因為它假設計算元素和存儲會失敗,因此它維護多個工作數據副本,確保能夠針對失敗的節點重新分布處理。Hadoop 是高效的,因為它以並行的方式工作,通過並行處理加快處理速度。Hadoop 還是可伸縮的,能夠處理 PB 級數據。此外,Hadoop 依賴於社區伺服器,因此它的成本比較低,任何人都可以使用。

八、EverString

everstring主要是通過大數據的預測分析建模為企業提供業務和客戶推薦的SaaS服務,獲取和積累了兩個數據信息資源庫,一個行業外部的資源庫(公有SaaS收費形式),一個行業自己內部的資源庫(私有),然後再通過機器學習和人工智慧的方法對數據進行相應行業或是領域的建模,最後得到一個比較不錯的結果,優化於人工可以得到的結果,而且Everstring也成為了初創大數據公司裡面估值很高的公司。