當前位置:首頁 » 編程語言 » sql中即席查詢是什麼意思
擴展閱讀
webinf下怎麼引入js 2023-08-31 21:54:13
堡壘機怎麼打開web 2023-08-31 21:54:11

sql中即席查詢是什麼意思

發布時間: 2023-01-16 07:54:27

sql語句中select是什麼意思

SQL SELECT 語句

SELECT 語句用於從表中選取數據。

結果被存儲在一個結果表中(稱為結果集)。

SQL SELECT 語法

SELECT 列名稱 FROM 表名稱

以及:

SELECT * FROM 表名稱

注釋:SQL 語句對大小寫不敏感。SELECT 等效於 select。

Ⅱ 數據倉庫數據建模的幾種思路

數據倉庫數據建模的幾種思路主要分為一下幾種

1. 星型模式

星形模式(Star Schema)是最常用的維度建模方式。星型模式是以事實表為中心,所有的維度表直接連接在事實表上,像星星一樣。星形模式的維度建模由一個事實表和一組維表成,且具有以下特點:a. 維表只和事實表關聯,維表之間沒有關聯;b. 每個維表主鍵為單列,且該主鍵放置在事實表中,作為兩邊連接的外鍵;c. 以事實表為核心,維表圍繞核心呈星形分布;

星座模型

Ⅲ sql中exists是什麼意思,怎麼講解

SQL EXISTS:

EXISTS 運算符用於判斷查詢子句是否有記錄,如果有一條或多條記錄存在返回 True,否則返回 False。

具體語法參考:

-from shulanxt

回答不易,望樓主採納哦~

資料庫中的sql查詢是什麼意思

SQL是結構化查詢語言,英文名稱是:Structured Query Language, 簡寫SQL,是關系資料庫的標准語言.它的主要功能包括:數據定義, 數據查詢,數據操作和數據控制

在ACCESS中主要用來是查詢或修改數據的,一般情況下,只要掌握其中的幾個關鍵的語句和方式就行了
比如:查找常用的SELECT 語句
比如從一個STU 表中找學號(Stun)為 0102 的學生的NAME ,語句為
SELECT NAME FROM STU WHERE Stun =0102

還有像插入語句:INSERT ,格式
INSERT INTO (<表名>) [(<列名1>)[,(<列名2>)])...<查詢>
刪除語句: DELETE 格式為
DELETE FROM <表名> [WHERE <條件>]
更新語句:UPDATE 格式為
UPDATE <表名> SET <列名1>=<表達式1>,[<列名1>=<表達式1>]....WHERE <條件>

建議你看一本有關資料庫的書,裡面對SQL的使用很詳細,
只要掌握幾語常用的一般就行了,很簡單的,不要被嚇怕了

Ⅳ 大數據雲計算好不好學習

說一下大數據的四個典型的特徵:

  • 數據量大;

  • 數據類型繁多,(結構化、非結構化文本、日誌、視頻、圖片、地理位置等);

  • 商業價值高,但需要在海量數據之上,通過數據分析與機器學習快速的挖掘出來;

  • 處理時效性高,海量數據的處理需求不再局限在離線計算當中。

第一章:Hadoop

在大數據存儲和計算中Hadoop可以算是開山鼻祖,現在大多開源的大數據框架都依賴Hadoop或者與它能很好的兼容。

關於Hadoop,你至少需要搞清楚這些是什麼:

自己學會如何搭建Hadoop,先讓它跑起來。建議先使用安裝包命令行安裝,不要使用管理工具安裝。現在都用Hadoop 2.0。

目錄操作命令;上傳、下載文件命令;提交運行MapRece示常式序;打開Hadoop WEB界面,查看Job運行狀態,查看Job運行日誌。知道Hadoop的系統日誌在哪裡。

以上完成之後,就應該去了解他們的原理了:

MapRece:如何分而治之;HDFS:數據到底在哪裡,究竟什麼才是副本;

Yarn到底是什麼,它能幹什麼;NameNode到底在幹些什麼;Resource Manager到底在幹些什麼;

如果有合適的學習網站,視頻就去聽課,如果沒有或者比較喜歡書籍,也可以啃書。當然最好的方法是先去搜索出來這些是干什麼的,大概有了概念之後,然後再去聽視頻。

第二章:更高效的WordCount

在這里,一定要學習SQL,它會對你的工作有很大的幫助。

就像是你寫(或者抄)的WordCount一共有幾行代碼?但是你用SQL就非常簡單了,例如:

SELECT word,COUNT(1) FROM wordcount GROUP BY word;

這便是SQL的魅力,編程需要幾十行,甚至上百行代碼,而SQL一行搞定;使用SQL處理分析Hadoop上的數據,方便、高效、易上手、更是趨勢。不論是離線計算還是實時計算,越來越多的大數據處理框架都在積極提供SQL介面。

另外就是SQL On Hadoop之Hive於大數據而言一定要學習的。

什麼是Hive?

官方解釋如下:The Apache Hive data warehouse software facilitates reading, writing, and managing large datasets residing in distributed storage and queried using SQL syntax。

為什麼說Hive是數據倉庫工具,而不是資料庫工具呢?

有的朋友可能不知道數據倉庫,數據倉庫是邏輯上的概念,底層使用的是資料庫,數據倉庫中的數據有這兩個特點:最全的歷史數據(海量)、相對穩定的;所謂相對穩定,指的是數據倉庫不同於業務系統資料庫,數據經常會被更新,數據一旦進入數據倉庫,很少會被更新和刪除,只會被大量查詢。而Hive,也是具備這兩個特點,因此,Hive適合做海量數據的數據倉庫工具,而不是資料庫工具。

了解了它的作用之後,就是安裝配置Hive的環節,當可以正常進入Hive命令行是,就是安裝配置成功了。

了解Hive是怎麼工作的

學會Hive的基本命令:

創建、刪除表;載入數據到表;下載Hive表的數據;

MapRece的原理(還是那個經典的題目,一個10G大小的文件,給定1G大小的內存,如何使用Java程序統計出現次數最多的10個單詞及次數);

HDS讀寫數據的流程;向HDFS中PUT數據;從HDFS中下載數據;

自己會寫簡單的MapRece程序,運行出現問題,知道在哪裡查看日誌;

會寫簡單的Select、Where、group by等SQL語句;

Hive SQL轉換成MapRece的大致流程;

Hive中常見的語句:創建表、刪除表、往表中載入數據、分區、將表中數據下載到本地;

從上面的學習,你已經了解到,HDFS是Hadoop提供的分布式存儲框架,它可以用來存儲海量數據,MapRece是Hadoop提供的分布式計算框架,它可以用來統計和分析HDFS上的海量數據,而Hive則是SQL On Hadoop,Hive提供了SQL介面,開發人員只需要編寫簡單易上手的SQL語句,Hive負責把SQL翻譯成MapRece,提交運行。

此時,你的」大數據平台」是這樣的:那麼問題來了,海量數據如何到HDFS上呢?

第三章:數據採集

把各個數據源的數據採集到Hadoop上。

3.1 HDFS PUT命令

這個在前面你應該已經使用過了。put命令在實際環境中也比較常用,通常配合shell、python等腳本語言來使用。建議熟練掌握。

3.2 HDFS API

HDFS提供了寫數據的API,自己用編程語言將數據寫入HDFS,put命令本身也是使用API。

實際環境中一般自己較少編寫程序使用API來寫數據到HDFS,通常都是使用其他框架封裝好的方法。比如:Hive中的INSERT語句,Spark中的saveAsTextfile等。建議了解原理,會寫Demo。

3.3 Sqoop

Sqoop是一個主要用於Hadoop/Hive與傳統關系型資料庫,Oracle、MySQL、SQLServer等之間進行數據交換的開源框架。就像Hive把SQL翻譯成MapRece一樣,Sqoop把你指定的參數翻譯成MapRece,提交到Hadoop運行,完成Hadoop與其他資料庫之間的數據交換。

自己下載和配置Sqoop(建議先使用Sqoop1,Sqoop2比較復雜)。了解Sqoop常用的配置參數和方法。

使用Sqoop完成從MySQL同步數據到HDFS;使用Sqoop完成從MySQL同步數據到Hive表;如果後續選型確定使用Sqoop作為數據交換工具,那麼建議熟練掌握,否則,了解和會用Demo即可。

3.4 Flume

Flume是一個分布式的海量日誌採集和傳輸框架,因為「採集和傳輸框架」,所以它並不適合關系型資料庫的數據採集和傳輸。Flume可以實時的從網路協議、消息系統、文件系統採集日誌,並傳輸到HDFS上。

因此,如果你的業務有這些數據源的數據,並且需要實時的採集,那麼就應該考慮使用Flume。

下載和配置Flume。使用Flume監控一個不斷追加數據的文件,並將數據傳輸到HDFS;Flume的配置和使用較為復雜,如果你沒有足夠的興趣和耐心,可以先跳過Flume。

3.5 阿里開源的DataX

現在DataX已經是3.0版本,支持很多數據源。

第四章:把Hadoop上的數據搞到別處去

Hive和MapRece進行分析了。那麼接下來的問題是,分析完的結果如何從Hadoop上同步到其他系統和應用中去呢?其實,此處的方法和第三章基本一致的。

HDFS GET命令:把HDFS上的文件GET到本地。需要熟練掌握。

HDFS API:同3.2.

Sqoop:同3.3.使用Sqoop完成將HDFS上的文件同步到MySQL;使用Sqoop完成將Hive表中的數據同步到MySQL。

如果你已經按照流程認真完整的走了一遍,那麼你應該已經具備以下技能和知識點:

知道如何把已有的數據採集到HDFS上,包括離線採集和實時採集;

知道sqoop是HDFS和其他數據源之間的數據交換工具;

知道flume可以用作實時的日誌採集。

從前面的學習,對於大數據平台,你已經掌握的不少的知識和技能,搭建Hadoop集群,把數據採集到Hadoop上,使用Hive和MapRece來分析數據,把分析結果同步到其他數據源。

接下來的問題來了,Hive使用的越來越多,你會發現很多不爽的地方,特別是速度慢,大多情況下,明明我的數據量很小,它都要申請資源,啟動MapRece來執行。

第五章:SQL

其實大家都已經發現Hive後台使用MapRece作為執行引擎,實在是有點慢。因此SQL On Hadoop的框架越來越多,按我的了解,最常用的按照流行度依次為SparkSQL、Impala和Presto.這三種框架基於半內存或者全內存,提供了SQL介面來快速查詢分析Hadoop上的數據。

我們目前使用的是SparkSQL,至於為什麼用SparkSQL,原因大概有以下吧:使用Spark還做了其他事情,不想引入過多的框架;Impala對內存的需求太大,沒有過多資源部署。

5.1 關於Spark和SparkSQL

什麼是Spark,什麼是SparkSQL。

Spark有的核心概念及名詞解釋。

SparkSQL和Spark是什麼關系,SparkSQL和Hive是什麼關系。

SparkSQL為什麼比Hive跑的快。

5.2 如何部署和運行SparkSQL

Spark有哪些部署模式?

如何在Yarn上運行SparkSQL?

使用SparkSQL查詢Hive中的表。Spark不是一門短時間內就能掌握的技術,因此建議在了解了Spark之後,可以先從SparkSQL入手,循序漸進。

關於Spark和SparkSQL,如果你認真完成了上面的學習和實踐,此時,你的」大數據平台」應該是這樣的。

第六章:數據多次利用

請不要被這個名字所誘惑。其實我想說的是數據的一次採集、多次消費。

在實際業務場景下,特別是對於一些監控日誌,想即時的從日誌中了解一些指標(關於實時計算,後面章節會有介紹),這時候,從HDFS上分析就太慢了,盡管是通過Flume採集的,但Flume也不能間隔很短就往HDFS上滾動文件,這樣會導致小文件特別多。

為了滿足數據的一次採集、多次消費的需求,這里要說的便是Kafka。

關於Kafka:什麼是Kafka?Kafka的核心概念及名詞解釋。

如何部署和使用Kafka:使用單機部署Kafka,並成功運行自帶的生產者和消費者例子。使用Java程序自己編寫並運行生產者和消費者程序。Flume和Kafka的集成,使用Flume監控日誌,並將日誌數據實時發送至Kafka。

如果你認真完成了上面的學習和實踐,此時,你的」大數據平台」應該是這樣的。

這時,使用Flume採集的數據,不是直接到HDFS上,而是先到Kafka,Kafka中的數據可以由多個消費者同時消費,其中一個消費者,就是將數據同步到HDFS。

如果你已經認真完整的學習了以上的內容,那麼你應該已經具備以下技能和知識點:

為什麼Spark比MapRece快。

使用SparkSQL代替Hive,更快的運行SQL。

使用Kafka完成數據的一次收集,多次消費架構。

自己可以寫程序完成Kafka的生產者和消費者。

從前面的學習,你已經掌握了大數據平台中的數據採集、數據存儲和計算、數據交換等大部分技能,而這其中的每一步,都需要一個任務(程序)來完成,各個任務之間又存在一定的依賴性,比如,必須等數據採集任務成功完成後,數據計算任務才能開始運行。如果一個任務執行失敗,需要給開發運維人員發送告警,同時需要提供完整的日誌來方便查錯。

第七章:越來越多的分析任務

不僅僅是分析任務,數據採集、數據交換同樣是一個個的任務。這些任務中,有的是定時觸發,有點則需要依賴其他任務來觸發。當平台中有幾百上千個任務需要維護和運行時候,僅僅靠crontab遠遠不夠了,這時便需要一個調度監控系統來完成這件事。調度監控系統是整個數據平台的中樞系統,類似於AppMaster,負責分配和監控任務。

7.1 Apache Oozie

Oozie是什麼?有哪些功能?

Oozie可以調度哪些類型的任務(程序)?

Oozie可以支持哪些任務觸發方式?

安裝配置Oozie。

7.2 其他開源的任務調度系統

Azkaban,light-task-scheler,Zeus,等等。另外,我這邊是之前單獨開發的任務調度與監控系統,具體請參考《大數據平台任務調度與監控系統》。

第八章:我的數據要實時

在第六章介紹Kafka的時候提到了一些需要實時指標的業務場景,實時基本可以分為絕對實時和准實時,絕對實時的延遲要求一般在毫秒級,准實時的延遲要求一般在秒、分鍾級。對於需要絕對實時的業務場景,用的比較多的是Storm,對於其他准實時的業務場景,可以是Storm,也可以是Spark Streaming。當然,如果可以的話,也可以自己寫程序來做。

8.1 Storm

什麼是Storm?有哪些可能的應用場景?

Storm由哪些核心組件構成,各自擔任什麼角色?

Storm的簡單安裝和部署。

自己編寫Demo程序,使用Storm完成實時數據流計算。

8.2 Spark Streaming

什麼是Spark Streaming,它和Spark是什麼關系?

Spark Streaming和Storm比較,各有什麼優缺點?

使用Kafka + Spark Streaming,完成實時計算的Demo程序。

至此,你的大數據平台底層架構已經成型了,其中包括了數據採集、數據存儲與計算(離線和實時)、數據同步、任務調度與監控這幾大模塊。接下來是時候考慮如何更好的對外提供數據了。

第九章:數據要對外

通常對外(業務)提供數據訪問,大體上包含以下方面。


離線:比如,每天將前一天的數據提供到指定的數據源(DB、FILE、FTP)等;離線數據的提供可以採用Sqoop、DataX等離線數據交換工具。

實時:比如,在線網站的推薦系統,需要實時從數據平台中獲取給用戶的推薦數據,這種要求延時非常低(50毫秒以內)。根據延時要求和實時數據的查詢需要,可能的方案有:HBase、Redis、MongoDB、ElasticSearch等。

OLAP分析:OLAP除了要求底層的數據模型比較規范,另外,對查詢的響應速度要求也越來越高,可能的方案有:Impala、Presto、SparkSQL、Kylin。如果你的數據模型比較規模,那麼Kylin是最好的選擇。

即席查詢:即席查詢的數據比較隨意,一般很難建立通用的數據模型,因此可能的方案有:Impala、Presto、SparkSQL。

這么多比較成熟的框架和方案,需要結合自己的業務需求及數據平台技術架構,選擇合適的。原則只有一個:越簡單越穩定的,就是最好的。

Ⅵ 大數據如何入門

首先我們要了解Java語言和Linux操作系統,這兩個是學習大數據的基礎,學習的順序不分前後。

大數據

Java :只要了解一些基礎即可,做大數據不需要很深的Java 技術,學java SE 就相當於有學習大數據基礎。


Linux:因為大數據相關軟體都是在Linux上運行的,所以Linux要學習的扎實一些,學好Linux對你快速掌握大數據相關技術會有很大的幫助,能讓你更好的理解hadoop、hive、hbase、spark等大數據軟體的運行環境和網路環境配置,能少踩很多坑,學會shell就能看懂腳本這樣能更容易理解和配置大數據集群。還能讓你對以後新出的大數據技術學習起來更快。


Hadoop:這是現在流行的大數據處理平台幾乎已經成為大數據的代名詞,所以這個是必學的。Hadoop裡麵包括幾個組件HDFS、MapRece和YARN,HDFS是存儲數據的地方就像我們電腦的硬碟一樣文件都存儲在這個上面,MapRece是對數據進行處理計算的,它有個特點就是不管多大的數據只要給它時間它就能把數據跑完,但是時間可能不是很快所以它叫數據的批處理。


Zookeeper:這是個萬金油,安裝Hadoop的HA的時候就會用到它,以後的Hbase也會用到它。它一般用來存放一些相互協作的信息,這些信息比較小一般不會超過1M,都是使用它的軟體對它有依賴,對於我們個人來講只需要把它安裝正確,讓它正常的run起來就可以了。


Mysql:我們學習完大數據的處理了,接下來學習學習小數據的處理工具mysql資料庫,因為一會裝hive的時候要用到,mysql需要掌握到什麼層度那?你能在Linux上把它安裝好,運行起來,會配置簡單的許可權,修改root的密碼,創建資料庫。這里主要的是學習SQL的語法,因為hive的語法和這個非常相似。


Sqoop:這個是用於把Mysql里的數據導入到Hadoop里的。當然你也可以不用這個,直接把Mysql數據表導出成文件再放到HDFS上也是一樣的,當然生產環境中使用要注意Mysql的壓力。


Hive:這個東西對於會SQL語法的來說就是神器,它能讓你處理大數據變的很簡單,不會再費勁的編寫MapRece程序。有的人說Pig那?它和Pig差不多掌握一個就可以了。


Oozie:既然學會Hive了,我相信你一定需要這個東西,它可以幫你管理你的Hive或者MapRece、Spark腳本,還能檢查你的程序是否執行正確,出錯了給你發報警並能幫你重試程序,最重要的是還能幫你配置任務的依賴關系。我相信你一定會喜歡上它的,不然你看著那一大堆腳本,和密密麻麻的crond是不是有種想屎的感覺。


Hbase:這是Hadoop生態體系中的NOSQL資料庫,他的數據是按照key和value的形式存儲的並且key是唯一的,所以它能用來做數據的排重,它與MYSQL相比能存儲的數據量大很多。所以他常被用於大數據處理完成之後的存儲目的地。


Kafka:這是個比較好用的隊列工具,隊列是干嗎的?排隊買票你知道不?數據多了同樣也需要排隊處理,這樣與你協作的其它同學不會叫起來,你干嗎給我這么多的數據(比如好幾百G的文件)我怎麼處理得過來,你別怪他因為他不是搞大數據的,你可以跟他講我把數據放在隊列里你使用的時候一個個拿,這樣他就不在抱怨了馬上灰流流的去優化他的程序去了,因為處理不過來就是他的事情。而不是你給的問題。當然我們也可以利用這個工具來做線上實時數據的入庫或入HDFS,這時你可以與一個叫Flume的工具配合使用,它是專門用來提供對數據進行簡單處理,並寫到各種數據接受方(比如Kafka)的。


Spark:它是用來彌補基於MapRece處理數據速度上的缺點,它的特點是把數據裝載到內存中計算而不是去讀慢的要死進化還特別慢的硬碟。特別適合做迭代運算,所以演算法流們特別稀飯它。它是用scala編寫的。Java語言或者Scala都可以操作它,因為它們都是用JVM的。

Ⅶ newsql和nosql的區別和聯系

TiDB 是 PingCAP 公司設計的開源分布式 HTAP (Hybrid Transactional and Analytical Processing) 資料庫,結合了傳統的 RDBMS 和 NoSQL 的最佳特性。TiDB 兼容 MySQL,支持無限的水平擴展,具備強一致性和高可用性。TiDB 的目標是為 OLTP (Online Transactional Processing) 和 OLAP (Online Analytical Processing) 場景提供一站式的解決方案。

TiDB 具備如下特性:

  • 高度兼容 MySQL

    大多數情況下,無需修改代碼即可從 MySQL 輕松遷移至 TiDB,分庫分表後的 MySQL 集群亦可通過 TiDB 工具進行實時遷移。

  • 水平彈性擴展

    通過簡單地增加新節點即可實現 TiDB 的水平擴展,按需擴展吞吐或存儲,輕松應對高並發、海量數據場景。

  • 分布式事務

    TiDB 100% 支持標準的 ACID 事務。

  • 真正金融級高可用

    相比於傳統主從 (M-S) 復制方案,基於 Raft 的多數派選舉協議可以提供金融級的 100% 數據強一致性保證,且在不丟失大多數副本的前提下,可以實現故障的自動恢復 (auto-failover),無需人工介入。

  • 一站式 HTAP 解決方案

    TiDB 作為典型的 OLTP 行存資料庫,同時兼具強大的 OLAP 性能,配合 TiSpark,可提供一站式 HTAP 解決方案,一份存儲同時處理 OLTP & OLAP,無需傳統繁瑣的 ETL 過程。

  • 雲原生 SQL 資料庫

    TiDB 是為雲而設計的資料庫,支持公有雲、私有雲和混合雲,配合TiDB Operator 項目可實現自動化運維,使部署、配置和維護變得十分簡單。

  • TiDB 的設計目標是 100% 的 OLTP 場景和 80% 的 OLAP 場景,更復雜的 OLAP 分析可以通過TiSpark 項目來完成。

    TiDB 對業務沒有任何侵入性,能優雅地替換傳統的資料庫中間件、資料庫分庫分表等 Sharding 方案。同時它也讓開發運維人員不用關注資料庫 Scale 的細節問題,專注於業務開發,極大地提升研發的生產力。

Ⅷ 什麼是ad

ad-hoc,其含義是「特定、特別」,或者「隨時的」、「即興的」、「隨機的」的意思,所以ad-hoc query也被翻譯成「即席查詢」,指的是用戶在使用系統的時候,適時根據具體需要提起的查詢。即席查詢從SQL語句上講和普通的查詢沒有什麼區別,但普通的查詢一般是已知系統設計和實施,所以這些查詢可以被優化,使得查詢效率提高;但即席查詢是臨時產生,有突發性,無法被優化,所以也被認為是評估數據倉庫的一個指標。
你可以創建兩個變數 col、tab,並在sqlcmd命令行中輸入對應的變數值:
select $(col) from $(tab)go然後將該腳本保存為query.sql腳本文件。接下來就可以用sqlcmd來執行了。比如,從sys.databases中取得「name」列,然後將結果存儲到一個名為「result.out」的文件中。

Ⅸ 1.SQL Server 2005資料庫引擎(Database Engine) 2.SQL Server 2005分析服務(Analysis Services)

1、Integration Service
SQL Server 2005帶來了一個全新的企業級數據整合平台。此平台具有出色的ETL和整合能力,使得組織機構能更加容易地管理來自於不同的關系型和非關系型數據源的數據。通過SQL Server Integration Services(SSIS),組織機構能以整體的視角去考察它們的商業運營情況,從而能具有競爭優勢。
企業級數據整合平台
SQL Server Integration Services取代了SQL Server 2000中一個非常受歡迎的功能模塊——數據轉換服務(DTS)。但SSIS並不是DTS的簡單升級,它是SQL Server 2005中的一個全新的組件,它提供了構建企業級ETL應用程序所需的功能和性能。SSIS是可編程的、可嵌入的和可擴展的,這些特性使其成為理想的ETL平台。
傳統 ETL 之外的
SQL Server 2005 支持非傳統的數據(Web Service,XML):
SSIS 可對不持續的數據進行分析
在數據流中的數據挖掘和文本挖掘
數據流中的數據挖掘和分析可用於數據質量和數據清洗
2、Analysis Service
在SQL Server 2005中,分析服務(Analysis Services)第一次提供了一個統一和集成的商業數據視圖,可被用做所有傳統報表、OLAP分析(online analytical processing)、關鍵績效指標(KPI)記分卡和數據挖掘的基礎。
統一空間模型Unified Dimensional Model
通過結合傳統OLAP分析和關系型報表中的最佳點,Analysis Services 2005提供了一個元數據模型用於滿足不同需求。Analysis Services 2005中的所有多維數據集和維度定義都可從統一空間模型UDM中查閱。UDM是一個中心元資料庫,其中定義了業務實體、業務邏輯、計算和metrics,可被作為所有報表、電子表格、OLAP瀏覽器、KPI和分析應用程序的源來使用。
通過使用新的、功能強大的數據源視圖特性、UDM可被映射成後台異構數據源宿主,這樣便可無需考慮數據的位置。
利用UDM中對業務實體的友好描述、等級導航、多視角、自動平滑翻譯為本機語言這些功能,最終用戶將會發現瀏覽公司業務數據是一件容易的事情。
數據挖掘
Microsoft SQL Server 2005 Data Mining(數據挖掘)屬於商務智能技術,它可幫助您構建復雜的分析模型,並使其與您的業務操作相集成。Microsoft SQL Server 2005分析服務中構建了新的數據挖掘平台——一個易於使用的、容易擴展的、方便訪問的、非常靈活的平台。對於以前從未考慮過採用數據挖掘的組織機構,這無疑是個非常容易接受的解決方案。
企業級產品的架構,與SQL Server產品家族商業智能功能的緊密集成,豐富的工具、API和演算法,這一切使得我們能基於SQL Server創建新型的商業智能應用程序。通過它所提供的針對各種商業問題的自定義的數據驅動解決方案,能達到提高生產力、增加利潤和減少支出的目的。
3、Reporting Service
SQL Server 2005 Reporting Services擴展了微軟商業智能(BI)平台,以迎合那些需要訪問商業數據的信息工作者。Reporting Services是一個基於伺服器的企業級報表環境,可藉助web services進行管理。報表可以用不同的格式發布,並可帶多種交互和列印選項。通過把報表作為更進一步的商業智能的數據源來分發,復雜的分析可被更多的用戶所用。
作為SQL Server 2005 的一個集成組件,Reporting Services提供了:
一個高性能引擎用來處理和格式化報表。
一個完整的工具集用來創建、管理和查看報表。
一個可擴展架構和開放式介面可將報表嵌入或集成報表解決方案到不同的IT環境中。
關系型和OLAP報表
在關系型數據上創建報表固然有用,但如能增加更多的分析能力就十分強大了。Reporting Services允許你在關系型和OLAP上創建報表,單獨的、或結合的。SQL Server 2005 支持關系型和OLAP數據,其分別提供了SQL Query Editor 和 MDX Query Editor。
報表生成器Report Builder
作為微軟SQL SERVER 2005 Reporting Services的一個新組件,Report Builder允許商業用戶使用界面友好的數據模型來創建他們自己的報表。報表生成器使Reporting Services平台能夠為所有最終用戶創建即席查詢(ad hoc)報表。用戶可以使用報表生成器客戶端來創建和編輯報表。報表生成器用戶界面是構建在大家熟知的微軟office產品之上的,如Excel和PowerPoint。
報表生成器是一種由瀏覽器來部署的ClickOnce應用程序。用戶可以通過選擇報表布局模板來開始創建報表,這些模板包含預定義的數據區,如:表格、矩陣表和圖表。接著用戶可以從模型中拖放報表項到設計界面,並可設置約束來過濾數據。報表生成器自動生成源查詢和檢索請求數據所需要的所有信息都包含在這個模型中。報表生成器還允許用戶:
向報表增加文本和格式
使用模型創建新的欄位和計算定義
預覽、列印和發布報表
把報表數據導出為如Excel之類的格式