當前位置:首頁 » 文件傳輸 » 哪些操作是訪問內存
擴展閱讀
webinf下怎麼引入js 2023-08-31 21:54:13
堡壘機怎麼打開web 2023-08-31 21:54:11

哪些操作是訪問內存

發布時間: 2022-12-24 19:53:06

Ⅰ 計算機中根據什麼訪問內存

計算機中是根據地址訪問內存

Ⅱ DMA訪問主存時,向CPU發送請求獲得匯流排使用權時再次訪存是什麼操作

DMA的數據傳送過程分預處理、數據傳送和後處理三個階段。
(1)預處理。在DMA介面開始工作之前,CPU必須給它預置如下信息:
·給DMA控制邏輯指明數據傳送方向是輸入(主存寫)還是輸出(主存讀);
·向DMA設備地址寄存器送入設備號,並啟動設備;
·向DMA主存地址寄存器送入交換數據的主存起始地址;
·對字計數器賦以交換數據的個數。
上述工作由CPU執行幾條輸入輸出指令完成,即程序的初始化階段。這些工作完成後,CPU繼續執行原來的程序。
當外部設備准備好發送的數據(輸入)或上次接受的數據已經處理完畢(輸出)時,它便通過DMA介面向CPU提出佔用匯流排的申請,若有多個DMA同時申請,則按輕重緩急由硬體排隊判優邏輯決定優先等級。待設備得到主存匯流排的控制權後,數據的傳送便由該DMA介面進行管理。
(2)數據傳送。
(3)後處理。當DMA的中斷請求得到響應後,CPU停止源程序的執行,轉去執行中斷服務程序,做一些DMA的結束工作。它包括校驗送入主存的數據是否正確;決定是否繼續用DMA傳送其他數據塊,若繼續傳送,則又要對DMA介面進行初始化,若不需要傳送,則停止外設;測試在傳送過程中是否發生錯誤,若出錯,則轉錯誤診斷及處理錯誤程序。

Ⅲ 內存管理

在一段時間內,程序的執行僅限於某個部分,相應地,它所訪問的存儲空間也局限於某個區域。

局部性原理的 分類

將編譯後的目標模塊裝配成一個可執行程序。

可執行程序以 二進制可執行文件 的形式存儲在磁碟上。

鏈接程序的 任務

程序的鏈接,可劃分為:

重定位 :將邏輯地址(相對地址)轉換為物理地址(絕對地址)的過程。

物理地址 = 邏輯地址 + 程序在內存中的起始地址

程序的裝入,可劃分為:

任何時刻主存儲器 最多隻有一個作業

每個分區 大小固定不變 :分區大小相等、分區大小不等。

每個分區可以且 僅可以裝入一個作業

使用 下限寄存器 上限寄存器 來保存當前作業的起始位置和結束位置。

使用 固定分區說明表 區分各分區的狀態。

分區 大小不是預先固定的 ,而是按作業(進程)的實際需求來劃分的。

分區 個數也不是預先固定的 ,而是由裝入的作業數決定的。

使用 空閑分區表 說明空閑分區的位置。

使用 空閑分區鏈 說明空閑分區的位置。

首次適應演算法的 過程

外部碎片:空閑內存 沒有在 分配的 進程 中。

內部碎片:空閑內存 分配的 進程 中。

上次找到的 空閑分區的 下一個 空閑分區開始查找。

優點:空閑區分布均勻、查找開銷較小。

缺點:缺乏大空閑區。

最佳適應演算法的 過程

優點:提高內存利用率。

注意點:每次在進行空閑區的修改前,需要先進行 分區大小遞增 的排序。

:將一個 進程 邏輯地址空間 分成若干個 大小相等

頁框 :將 物理內存空間 分成與頁大小相同的若干個 存儲塊

分頁存儲 :將進程的若干 分別裝入多個 可以不相鄰 頁框 中。

頁內碎片 :進程 最後一頁 一般裝不滿一個頁框,形成 頁內碎片

頁表 :記錄描述頁的各種數據,實現從 頁號 頁框號 的映射。

注意: 頁內偏移量 的單位是 位元組

分頁地址變換指是: 邏輯地址 通過 地址變換機構 變換為 物理地址

分頁地址變換的 過程

操作系統在修改或裝入頁表寄存器的值時,使用的是 特權級 指令。

頁大小:512B ~ 4KB,目前的計算機系統中,大多選擇 4KB 大小的頁。

頁大小的 選擇因素

快表也稱為「轉換後援緩沖」,是為了提高CPU訪問速度而採用的專用緩存,用來存放 最近被訪問過的頁表項

英文縮寫:TLB。

組成: 鍵和值

在TLB中找到某一個頁號對應的頁表項的百分比稱為 TLB命中率

在TLB中找到所需要的頁表項時:

有效訪問時間 = 一次訪問TLB 的時間 + 一次訪問內存 的時間(訪問內存讀寫數據或指令)

不能 在TLB中找到所需要的頁表項時:

有效訪問時間 = 一次訪問TLB 的時間 + 兩次訪問內存 的時間(一次訪問內存頁表,一次訪問內存讀寫數據或指令)

將頁表再分頁,形成兩級或多級頁表,將頁表離散地存放在物理內存中。

在進程切換時,要運行的進程的頁目錄表歧視地址被寫入 頁表寄存器

在二級分頁系統中,為頁表再建立一個頁目錄表的目的是為了能在地址映射時得到頁表在物理內存中的地址,在頁目錄表的表項中存放了每一個 頁表 在物理內存中所在的 頁框號

虛擬存儲器 :是指具有 請求調入功能 置換功能 ,能 從邏輯上對內存容量進行擴充 的一種存儲系統。

請求調入 :就是說,先將進程一部分裝入內存,其餘的部分什麼時候需要,什麼時候請求系統裝入。

置換 :如果請求調入時,沒有足夠的內存,則由操作系統選擇一部分內存中的進程內容移到外存,以騰出空間把當前需要裝入的內存調入。

為了實現請求分頁,需要:

保證進程正常運行的所需要的最小頁框數。

最小頁框數與進程的大小沒有關系,它與計算機的 硬體結構 有關,取決於 指令的格式、功能和定址方式

內存不夠時,從進程本身選擇淘汰頁,還是從系統中所有進程中選擇?:

採用什麼樣的演算法為不同進程分配頁框?:

常用的兩種 置換策略 局部置換 全局置換

從分配給進程的頁框數量上看,常使用的兩種 分配策略 固定分配 可變分配

用新調入的頁替換 最長時間沒有訪問 的頁面。

找到 未來最晚被訪問 的那個頁換出。

,P為缺頁率。

有效訪問時間與缺頁率成 正比 ,缺頁率越高,有效訪問時間越長,訪問效率越低。

工作集 :某段時間間隔里,進程實際要訪問的頁的集合。

引入工作集的 目的 :降低缺頁率,提高訪問內存效率。

抖動 :運行進程的大部分時間都用於頁的換入換出,幾乎不能完成任何有效果工作的狀態。

抖動的 產生原因

抖動的 預防方法

在分段存儲管理的系統中,程序使用 二維 的邏輯地址,一個數用來表示 ,另一個數用來表示 段內偏移量

引入分段的 目的

引入分段的 優點

進程的地址空間被劃分成 若干個段

每個段定義了一組邏輯信息,每個段的大小由相應的邏輯信息組的長度確定, 段的大小不一樣 ,每個段的邏輯地址從0開始,採用一段 連續的地址空間

系統為每個段分配一個 連續的物理內存區域 ,各個 不同的段可以離散 地放入物理內存不同的區域。

系統為 每個進程建立一張段表 ,段表的每一個表項記錄的信息包括: 段號、段長和該段的基址 ,段表存放在內存中。

分段的 邏輯地址結構

段表是由操作系統維護的用於支持分段存儲管理 地址映射 的數據結構。

每個進程有一個段表,段表由段表項構成。每個段表項包括: 段號、段長(段的大小)和該段的基址(段的起始地址)

若已知邏輯單元的地址為 S:D (段號:段內偏移量),求相應物理地址的步驟如下:

相同點 :分頁和分段都屬於 離散 分配方式,都要通過數據結構與硬體的配合來實現 邏輯地址到物理地址 的映射。

不同點

將用戶進程的邏輯空間 先劃分為若干個段 每個段再劃分成若干個頁

進程以頁為單位在物理內存中 離散 存放,每個段中被離散存放的頁具有 邏輯相關性

為了實現地址映射,操作系統為 每個進程建立一個段表 ,再為 每個段建立一個頁表

進程段表的段表項組成:

滿足以下條件的兩個塊稱為 夥伴

Ⅳ 電腦的內存是如何定址的

最大的定址空間為:4096位元組。

計算方法:

計算機的語言是二進制的,故最大定址空間=2的12次方=4096位元組

定址空間一般指的是CPU對於內存定址的能力。

Ⅳ 對存儲器的訪問可分為___操作和___操作,計算機的內存讀寫信息是按___為單位進行的。

對存儲器的訪問可分為__讀_操作和_寫__操作,計算機的內存讀寫信息是按_位元組__為單位進行的。

讀 寫 位元組

Ⅵ 訪問快表 算是訪問內存嗎

不是的,塊表和內存是有區別的。快表(TLB)是一個內存管理單元用於改進虛擬地址到物理地址轉換速度的緩存,利用高速緩沖存儲器存放頁表的一部分,把存放在高速存儲器中的部分頁表稱「快表」。快表中登記了頁表中的一部分頁號與主存塊號的對應關系。根據程序執行局部性的特點,在一段時間總是經常訪問某些頁,若把這些頁登記在快表中,則可快速查找並提高執行速度。

Ⅶ 請幫忙給我講一下電腦常識

電腦常識
CPU的指標
(1) CPU的時鍾頻率稱為主頻, 主頻越高, 則計算機工作速度越快; 主板的頻率稱為外頻; 主頻與外頻的關系為:
(2) 內部緩存(cache), 也叫一級緩存(L1 cache). 這種存儲器由SRAM製作, 封裝於CPU內部, 存取速度與CPU主頻相同. 內部緩存容量越大, 則整機工作速度也越快. 一般容量為KB.
主頻=外頻×倍頻數
(3) 二級緩存(L2 cache). 集成於CPU外部的高速緩存, 存取速度與CPU主頻相同或與主板頻率相同. 容量一般為KB~MB.
(4) MMX(Multi-Media extension)指令技術. 增加了多媒體擴展指令集的CPU, 對多媒體信息的處理能力可以提高60%左右.
(5) 3D指令技術. 增加了3D擴展指令集的CPU, 可大幅度提高對三維圖象的處理速度.
----------------------------------
CPU的英文全稱是Central Processing Unit,即中央處理器。CPU從雛形出現到發展壯大的今天,由於製造技術的越來越先進,其集成度越來越高,內部的晶體管數達到幾百萬個。雖然從最初的CPU發展到現在其晶體管數增加了幾十倍,但是CPU的內部結構仍然可分為控制單元,邏輯單元和存儲單元三大部分。CPU的性能大致上反映出了它所配置的那部微機的性能,因此CPU的性能指標十分重要。 CPU主要的性能指標有以下幾點:
第一:主頻,也就是CPU的時鍾頻率,簡單地說也就是CPU的工作頻率。一般說來,一個時鍾周期完成的指令數是固定的,所以主頻越高,CPU的速度也就越快了。不過由於各種CPU的內部結構也不盡相同,所以並不能完全用主頻來概括CPU的性能。至於外頻就是系統匯流排的工作頻率;而倍頻則是指CPU外頻與主頻相差的倍數。用公式表示就是:主頻=外頻×倍頻。我們通常說的賽揚433、PIII 550都是指CPU的主頻而言的。
第二:內存匯流排速度或者叫系統總路線速度,一般等同於CPU的外頻。內存匯流排的速度對整個系統性能來說很重要,由於內存速度的發展滯後於CPU的發展速度,為了緩解內存帶來的瓶頸,所以出現了二級緩存,來協調兩者之間的差異,而內存匯流排速度就是指CPU與二級(L2)高速緩存和內存之間的工作頻率。
第三:工作電壓。工作電壓指的也就是CPU正常工作所需的電壓。早期CPU(386、486)由於工藝落後,它們的工作電壓一般為5V,發展到奔騰586時,已經是3.5V/3.3V/2.8V了,隨著CPU的製造工藝與主頻的提高,CPU的工作電壓有逐步下降的趨勢,Intel最新出品的Coppermine已經採用1.6V的工作電壓了。低電壓能解決耗電過大和發熱過高的問題,這對於筆記本電腦尤其重要。
第四:協處理器或者叫數學協處理器。在486以前的CPU裡面,是沒有內置協處理器的。由於協處理器主要的功能就是負責浮點運算,因此386、286、8088等等微機CPU的浮點運算性能都相當落後,自從486以後,CPU一般都內置了協處理器,協處理器的功能也不再局限於增強浮點運算。現在CPU的浮點單元(協處理器)往往對多媒體指令進行了優化。比如Intel的MMX技術,MMX是「多媒體擴展指令集」的縮寫。MMX是Intel公司在1996年為增強Pentium CPU在音像、圖形和通信應用方面而採取的新技術。為CPU新增加57條MMX指令,把處理多媒體的能力提高了60%左右。
第五:流水線技術、超標量。流水線(pipeline)是 Intel首次在486晶元中開始使用的。流水線的工作方式就象工業生產上的裝配流水線。在CPU中由5~6個不同功能的電路單元組成一條指令處理流水線,然後將一條X86指令分成5~6步後再由這些電路單元分別執行,這樣就能實現在一個CPU時鍾周期完成一條指令,因此提高了CPU的運算速度。超流水線是指某型 CPU內部的流水線超過通常的5~6步以上,例如Pentium pro的流水線就長達14步。將流水線設計的步(級)數越多,其完成一條指令的速度越快,因此才能適應工作主頻更高的CPU。超標量是指在一個時鍾周期內CPU可以執行一條以上的指令。這在486或者以前的CPU上是很難想像的,只有Pentium級以上CPU才具有這種超標量結構;這是因為現代的CPU越來越多的採用了RISC技術,所以才會超標量的CPU。
第六:亂序執行和分枝預測,亂序執行是指CPU採用了允許將多條指令不按程序規定的順序分開發送給各相應電路單元處理的技術。分枝是指程序運行時需要改變的節點。分枝有無條件分枝和有條件分枝,其中無條件分枝只需要CPU按指令順序執行,而條件分枝則必須根據處理結果再決定程序運行方向是否改變,因此需要「分枝預測」技術處理的是條件分枝。
第七:L1高速緩存,也就是我們經常說的一級高速緩存。在CPU裡面內置了高速緩存可以提高CPU的運行效率。內置的L1高速緩存的容量和結構對CPU的性能影響較大,不過高速緩沖存儲器均由靜態RAM組成,結構較復雜,在CPU管芯面積不能太大的情況下,L1級高速緩存的容量不可能做得太大。採用回寫(Write Back)結構的高速緩存。它對讀和寫操作均有可提供緩存。而採用寫通(Write-through)結構的高速緩存,僅對讀操作有效。在486以上的計算機中基本採用了回寫式高速緩存。
第八:L2高速緩存,指CPU外部的高速緩存。Pentium Pro處理器的L2和CPU運行在相同頻率下的,但成本昂貴,所以Pentium II運行在相當於CPU頻率一半下的,容量為512K。為降低成本Intel公司曾生產了一種不帶L2的CPU名為賽揚。
第九:製造工藝, Pentium CPU的製造工藝是0.35微米, PII和賽揚可以達到0.25微米,最新的CPU製造工藝可以達到0.18微米,並且將採用銅配線技術,可以極大地提高CPU的集成度和工作頻率。
六.多媒體指令集
CPU依靠指令來計算和控制系統,每款CPU在設計時就規定了一系列與其硬體電路相配合的指令系統。指令的強弱也是CPU的重要指標,指令集是提高微處理器效率的最有效工具之一。從現階段的主流體系結構講,指令集可分為復雜指令集和精簡指令集兩部分,而從具體運用看,如Intel的MMX(Multi Media Extended)、SSE、 SSE2(Streaming-Single instruction multiple data-Extensions 2)和AMD的3DNow!等都是CPU的擴展指令集,分別增強了CPU的多媒體、圖形圖象和Internet等的處理能力。我們通常會把CPU的擴展指令集稱為"CPU的指令集"。
1、精簡指令集的運用
在最初發明計算機的數十年裡,隨著計算機功能日趨增大,性能日趨變強,內部元器件也越來越多,指令集日趨復雜,過於冗雜的指令嚴重的影響了計算機的工作效率。後來經過研究發現,在計算機中,80%程序只用到了20%的指令集,基於這一發現,RISC精簡指令集被提了出來,這是計算機系統架構的一次深刻革命。RISC體系結構的基本思路是:抓住CISC指令系統指令種類太多、指令格式不規范、定址方式太多的缺點,通過減少指令種類、規范指令格式和簡化定址方式,方便處理器內部的並行處理,提高VLSI器件的使用效率,從而大幅度地提高處理器的性能。
RISC指令集有許多特徵,其中最重要的有:
指令種類少,指令格式規范:RISC指令集通常只使用一種或少數幾種格式。指令長度單一(一般4個位元組),並且在字邊界上對齊,欄位位置、特別是操作碼的位置是固定的。
定址方式簡化:幾乎所有指令都使用寄存器定址方式,定址方式總數一般不超過5個。其他更為復雜的定址方式,如間接定址等則由軟體利用簡單的定址方式來合成。
大量利用寄存器間操作:RISC指令集中大多數操作都是寄存器到寄存器操作,只以簡單的Load和Store操作訪問內存。因此,每條指令中訪問的內存地址不會超過1個,訪問內存的操作不會與算術操作混在一起。
簡化處理器結構:使用RISC指令集,可以大大簡化處理器的控制器和其他功能單元的設計,不必使用大量專用寄存器,特別是允許以硬體線路來實現指令操作,而不必像CISC處理器那樣使用微程序來實現指令操作。因此RISC處理器不必像CISC處理器那樣設置微程序控制存儲器,就能夠快速地直接執行指令。
便於使用VLSI技術:隨著LSI和VLSI技術的發展,整個處理器(甚至多個處理器)都可以放在一個晶元上。RISC體系結構可以給設計單晶元處理器帶來很多好處,有利於提高性能,簡化VLSI晶元的設計和實現。基於VLSI技術,製造RISC處理器要比CISC處理器工作量小得多,成本也低得多。
加強了處理器並行能力:RISC指令集能夠非常有效地適合於採用流水線、超流水線和超標量技術,從而實現指令級並行操作,提高處理器的性能。目前常用的處理器內部並行操作技術基本上是基於RISC體系結構發展和走向成熟的。
正由於RISC體系所具有的優勢,它在高端系統得到了廣泛的應用,而CISC體系則在桌面系統中占據統治地位。而在如今,在桌面領域,RISC也不斷滲透,預計未來,RISC將要一統江湖。
2、CPU的擴展指令集
對於CPU來說,在基本功能方面,它們的差別並不太大,基本的指令集也都差不多,但是許多廠家為了提升某一方面性能,又開發了擴展指令集,擴展指令集定義了新的數據和指令,能夠大大提高某方面數據處理能力,但必需要有軟體支持。
MMX 指令集
MMX(Multi Media eXtension,多媒體擴展指令集)指令集是Intel公司於1996年推出的一項多媒體指令增強技術。MMX指令集中包括有57條多媒體指令,通過這些指令可以一次處理多個數據,在處理結果超過實際處理能力的時候也能進行正常處理,這樣在軟體的配合下,就可以得到更高的性能。MMX的益處在於,當時存在的操作系統不必為此而做出任何修改便可以輕松地執行MMX程序。但是,問題也比較明顯,那就是MMX指令集與x87浮點運算指令不能夠同時執行,必須做密集式的交錯切換才可以正常執行,這種情況就勢必造成整個系統運行質量的下降。
SSE指令集
SSE(Streaming SIMD Extensions,單指令多數據流擴展)指令集是Intel在Pentium III處理器中率先推出的。其實,早在PIII正式推出之前,Intel公司就曾經通過各種渠道公布過所謂的KNI(Katmai New Instruction)指令集,這個指令集也就是SSE指令集的前身,並一度被很多傳媒稱之為MMX指令集的下一個版本,即MMX2指令集。究其背景,原來"KNI"指令集是Intel公司最早為其下一代晶元命名的指令集名稱,而所謂的"MMX2"則完全是硬體評論家們和媒體憑感覺和印象對"KNI"的 評價,Intel公司從未正式發布過關於MMX2的消息。
而最終推出的SSE指令集也就是所謂勝出的"互聯網SSE"指令集。SSE指令集包括了70條指令,其中包含提高3D圖形運算效率的50條SIMD(單指令多數據技術)浮點運算指令、12條MMX 整數運算增強指令、8條優化內存中連續數據塊傳輸指令。理論上這些指令對目前流行的圖像處理、浮點運算、3D運算、視頻處理、音頻處理等諸多多媒體應用起到全面強化的作用。SSE指令與3DNow!指令彼此互不兼容,但SSE包含了3DNow!技術的絕大部分功能,只是實現的方法不同。SSE兼容MMX指令,它可以通過SIMD和單時鍾周期並行處理多個浮點數據來有效地提高浮點運算速度。
在後來Intel為了應對AMD的3Dnow!指令集,又在SSE的基礎上開發了SSE2,增加了一些指令,使得其P4處理器性能有大幅度提高。到P4設計結束為止,Intel增加了一套包括144條新建指令的SSE2指令集。像最早的SIMD擴展指令集,SSE2涉及了多重的數據目標上立刻執行一單個的指令(即SIMD,一個計算低工控最好的方法是讓每指令執行更多的工作)。最重要的是SSE2能處理128位和兩倍精密浮點數學運算。處理更精確浮點數的能力使SSE2成為加速多媒體程序、3D處理工程以及工作站類型任務的基礎配置。但重要的是軟體是否能適當的優化利用它。
3D Now!(3D no waiting)指令集
3DNow!是AMD公司開發的SIMD指令集,可以增強浮點和多媒體運算的速度,並被AMD廣泛應用於其K6-2 、K6-3以及Athlon(K7)處理器上。3DNow!指令集技術其實就是21條機器碼的擴展指令集。
與Intel公司的MMX技術側重於整數運算有所不同,3DNow!指令集主要針對三維建模、坐標變換 和效果渲染等三維應用場合,在軟體的配合下,可以大幅度提高3D處理性能。後來在Athlon上開發了Enhanced 3DNow!。這些AMD標準的SIMD指令和Intel的SSE具有相同效能。因為受到Intel在商業上以及Pentium III成功的影響,軟體在支持SSE上比起3DNow!更為普遍。Enhanced 3DNow!AMD公司繼續增加至52個指令,包含了一些SSE碼,因而在針對SSE做最佳化的軟體中能獲得更好的效能。
顯卡的指標
牌子,頻率,介面 顯卡晶元、顯存顆粒的型號、規格 還有渲染效果 象素管等等 還有散熱~~~
其中有三個主要指標:容量、頻率和顯存位寬。
1.容量
顯存擔負著系統與顯卡之間數據交換以及顯示晶元運算3D圖形時的數據緩存,因此顯存容量自然決定了顯示晶元能處理的數據量。理論上講,顯存越大,顯卡性能就越好。不過這只是理論上的計算而已,實際顯卡性能要受到很多因素的約束,如:顯示晶元速度,顯存位寬、顯存速度等。
2.時鍾周期和工作頻率
時鍾周期和顯存工作頻率是顯存非常重要的性能指標,它指的是顯存每處理一次數據要經過的時間。顯存速度越快,單位時間交換的數據量也就越大,在同等情況下顯卡性能將會得到明顯提升。顯存的時鍾周期一般以ns(納秒)為單位,工作頻率以MHz為單位。顯存時鍾周期跟工作頻率一一對應,它們之間的關系為:工作頻率=1÷時鍾周期×1000。
常見顯存時鍾周期有5ns、4ns、3.8ns、3.6ns、3.3ns、2.8ns。對於DDR SDRAM顯存來說,描述其工作頻率時用的是等效工作頻率。因為能在時鍾周期的上升沿和下降沿都能傳送數據,所以在工作頻率和數據位寬度相同的情況下,顯存帶寬是SDRAM的兩倍。換句話說,在顯存時鍾周期相同的情況下,DDR SDRAM顯存的實際工作頻率是SDRAM顯存的兩倍。例如,5ns的SDRAM顯存的工作頻率為200MHz,而5ns的DDR SDRAM顯存的等效工作頻率就是400MHz。目前市面上顯卡所採用的顯存都為DDR,SDR已經被淘汰了。

Ⅷ 電腦系統常識有哪些

電腦常識
CPU的指標
(1) CPU的時鍾頻率稱為主頻, 主頻越高, 則計算機工作速度越快; 主板的頻率稱為外頻; 主頻與外頻的關系為:
(2) 內部緩存(cache), 也叫一級緩存(L1 cache). 這種存儲器由SRAM製作, 封裝於CPU內部, 存取速度與CPU主頻相同. 內部緩存容量越大, 則整機工作速度也越快. 一般容量為KB.
主頻=外頻×倍頻數
(3) 二級緩存(L2 cache). 集成於CPU外部的高速緩存, 存取速度與CPU主頻相同或與主板頻率相同. 容量一般為KB~MB.
(4) MMX(Multi-Media extension)指令技術. 增加了多媒體擴展指令集的CPU, 對多媒體信息的處理能力可以提高60%左右.
(5) 3D指令技術. 增加了3D擴展指令集的CPU, 可大幅度提高對三維圖象的處理速度.
----------------------------------
CPU的英文全稱是Central Processing Unit,即中央處理器。CPU從雛形出現到發展壯大的今天,由於製造技術的越來越先進,其集成度越來越高,內部的晶體管數達到幾百萬個。雖然從最初的CPU發展到現在其晶體管數增加了幾十倍,但是CPU的內部結構仍然可分為控制單元,邏輯單元和存儲單元三大部分。CPU的性能大致上反映出了它所配置的那部微機的性能,因此CPU的性能指標十分重要。 CPU主要的性能指標有以下幾點:
第一:主頻,也就是CPU的時鍾頻率,簡單地說也就是CPU的工作頻率。一般說來,一個時鍾周期完成的指令數是固定的,所以主頻越高,CPU的速度也就越快了。不過由於各種CPU的內部結構也不盡相同,所以並不能完全用主頻來概括CPU的性能。至於外頻就是系統匯流排的工作頻率;而倍頻則是指CPU外頻與主頻相差的倍數。用公式表示就是:主頻=外頻×倍頻。我們通常說的賽揚433、PIII 550都是指CPU的主頻而言的。
第二:內存匯流排速度或者叫系統總路線速度,一般等同於CPU的外頻。內存匯流排的速度對整個系統性能來說很重要,由於內存速度的發展滯後於CPU的發展速度,為了緩解內存帶來的瓶頸,所以出現了二級緩存,來協調兩者之間的差異,而內存匯流排速度就是指CPU與二級(L2)高速緩存和內存之間的工作頻率。
第三:工作電壓。工作電壓指的也就是CPU正常工作所需的電壓。早期CPU(386、486)由於工藝落後,它們的工作電壓一般為5V,發展到奔騰586時,已經是3.5V/3.3V/2.8V了,隨著CPU的製造工藝與主頻的提高,CPU的工作電壓有逐步下降的趨勢,Intel最新出品的Coppermine已經採用1.6V的工作電壓了。低電壓能解決耗電過大和發熱過高的問題,這對於筆記本電腦尤其重要。
第四:協處理器或者叫數學協處理器。在486以前的CPU裡面,是沒有內置協處理器的。由於協處理器主要的功能就是負責浮點運算,因此386、286、8088等等微機CPU的浮點運算性能都相當落後,自從486以後,CPU一般都內置了協處理器,協處理器的功能也不再局限於增強浮點運算。現在CPU的浮點單元(協處理器)往往對多媒體指令進行了優化。比如Intel的MMX技術,MMX是「多媒體擴展指令集」的縮寫。MMX是Intel公司在1996年為增強Pentium CPU在音像、圖形和通信應用方面而採取的新技術。為CPU新增加57條MMX指令,把處理多媒體的能力提高了60%左右。
第五:流水線技術、超標量。流水線(pipeline)是 Intel首次在486晶元中開始使用的。流水線的工作方式就象工業生產上的裝配流水線。在CPU中由5~6個不同功能的電路單元組成一條指令處理流水線,然後將一條X86指令分成5~6步後再由這些電路單元分別執行,這樣就能實現在一個CPU時鍾周期完成一條指令,因此提高了CPU的運算速度。超流水線是指某型 CPU內部的流水線超過通常的5~6步以上,例如Pentium pro的流水線就長達14步。將流水線設計的步(級)數越多,其完成一條指令的速度越快,因此才能適應工作主頻更高的CPU。超標量是指在一個時鍾周期內CPU可以執行一條以上的指令。這在486或者以前的CPU上是很難想像的,只有Pentium級以上CPU才具有這種超標量結構;這是因為現代的CPU越來越多的採用了RISC技術,所以才會超標量的CPU。
第六:亂序執行和分枝預測,亂序執行是指CPU採用了允許將多條指令不按程序規定的順序分開發送給各相應電路單元處理的技術。分枝是指程序運行時需要改變的節點。分枝有無條件分枝和有條件分枝,其中無條件分枝只需要CPU按指令順序執行,而條件分枝則必須根據處理結果再決定程序運行方向是否改變,因此需要「分枝預測」技術處理的是條件分枝。
第七:L1高速緩存,也就是我們經常說的一級高速緩存。在CPU裡面內置了高速緩存可以提高CPU的運行效率。內置的L1高速緩存的容量和結構對CPU的性能影響較大,不過高速緩沖存儲器均由靜態RAM組成,結構較復雜,在CPU管芯面積不能太大的情況下,L1級高速緩存的容量不可能做得太大。採用回寫(Write Back)結構的高速緩存。它對讀和寫操作均有可提供緩存。而採用寫通(Write-through)結構的高速緩存,僅對讀操作有效。在486以上的計算機中基本採用了回寫式高速緩存。
第八:L2高速緩存,指CPU外部的高速緩存。Pentium Pro處理器的L2和CPU運行在相同頻率下的,但成本昂貴,所以Pentium II運行在相當於CPU頻率一半下的,容量為512K。為降低成本Intel公司曾生產了一種不帶L2的CPU名為賽揚。
第九:製造工藝, Pentium CPU的製造工藝是0.35微米, PII和賽揚可以達到0.25微米,最新的CPU製造工藝可以達到0.18微米,並且將採用銅配線技術,可以極大地提高CPU的集成度和工作頻率。
六.多媒體指令集
CPU依靠指令來計算和控制系統,每款CPU在設計時就規定了一系列與其硬體電路相配合的指令系統。指令的強弱也是CPU的重要指標,指令集是提高微處理器效率的最有效工具之一。從現階段的主流體系結構講,指令集可分為復雜指令集和精簡指令集兩部分,而從具體運用看,如Intel的MMX(Multi Media Extended)、SSE、 SSE2(Streaming-Single instruction multiple data-Extensions 2)和AMD的3DNow!等都是CPU的擴展指令集,分別增強了CPU的多媒體、圖形圖象和Internet等的處理能力。我們通常會把CPU的擴展指令集稱為"CPU的指令集"。
1、精簡指令集的運用
在最初發明計算機的數十年裡,隨著計算機功能日趨增大,性能日趨變強,內部元器件也越來越多,指令集日趨復雜,過於冗雜的指令嚴重的影響了計算機的工作效率。後來經過研究發現,在計算機中,80%程序只用到了20%的指令集,基於這一發現,RISC精簡指令集被提了出來,這是計算機系統架構的一次深刻革命。RISC體系結構的基本思路是:抓住CISC指令系統指令種類太多、指令格式不規范、定址方式太多的缺點,通過減少指令種類、規范指令格式和簡化定址方式,方便處理器內部的並行處理,提高VLSI器件的使用效率,從而大幅度地提高處理器的性能。
RISC指令集有許多特徵,其中最重要的有:
指令種類少,指令格式規范:RISC指令集通常只使用一種或少數幾種格式。指令長度單一(一般4個位元組),並且在字邊界上對齊,欄位位置、特別是操作碼的位置是固定的。
定址方式簡化:幾乎所有指令都使用寄存器定址方式,定址方式總數一般不超過5個。其他更為復雜的定址方式,如間接定址等則由軟體利用簡單的定址方式來合成。
大量利用寄存器間操作:RISC指令集中大多數操作都是寄存器到寄存器操作,只以簡單的Load和Store操作訪問內存。因此,每條指令中訪問的內存地址不會超過1個,訪問內存的操作不會與算術操作混在一起。
簡化處理器結構:使用RISC指令集,可以大大簡化處理器的控制器和其他功能單元的設計,不必使用大量專用寄存器,特別是允許以硬體線路來實現指令操作,而不必像CISC處理器那樣使用微程序來實現指令操作。因此RISC處理器不必像CISC處理器那樣設置微程序控制存儲器,就能夠快速地直接執行指令。
便於使用VLSI技術:隨著LSI和VLSI技術的發展,整個處理器(甚至多個處理器)都可以放在一個晶元上。RISC體系結構可以給設計單晶元處理器帶來很多好處,有利於提高性能,簡化VLSI晶元的設計和實現。基於VLSI技術,製造RISC處理器要比CISC處理器工作量小得多,成本也低得多。
加強了處理器並行能力:RISC指令集能夠非常有效地適合於採用流水線、超流水線和超標量技術,從而實現指令級並行操作,提高處理器的性能。目前常用的處理器內部並行操作技術基本上是基於RISC體系結構發展和走向成熟的。
正由於RISC體系所具有的優勢,它在高端系統得到了廣泛的應用,而CISC體系則在桌面系統中占據統治地位。而在如今,在桌面領域,RISC也不斷滲透,預計未來,RISC將要一統江湖。
2、CPU的擴展指令集
對於CPU來說,在基本功能方面,它們的差別並不太大,基本的指令集也都差不多,但是許多廠家為了提升某一方面性能,又開發了擴展指令集,擴展指令集定義了新的數據和指令,能夠大大提高某方面數據處理能力,但必需要有軟體支持。
MMX 指令集
MMX(Multi Media eXtension,多媒體擴展指令集)指令集是Intel公司於1996年推出的一項多媒體指令增強技術。MMX指令集中包括有57條多媒體指令,通過這些指令可以一次處理多個數據,在處理結果超過實際處理能力的時候也能進行正常處理,這樣在軟體的配合下,就可以得到更高的性能。MMX的益處在於,當時存在的操作系統不必為此而做出任何修改便可以輕松地執行MMX程序。但是,問題也比較明顯,那就是MMX指令集與x87浮點運算指令不能夠同時執行,必須做密集式的交錯切換才可以正常執行,這種情況就勢必造成整個系統運行質量的下降。
SSE指令集
SSE(Streaming SIMD Extensions,單指令多數據流擴展)指令集是Intel在Pentium III處理器中率先推出的。其實,早在PIII正式推出之前,Intel公司就曾經通過各種渠道公布過所謂的KNI(Katmai New Instruction)指令集,這個指令集也就是SSE指令集的前身,並一度被很多傳媒稱之為MMX指令集的下一個版本,即MMX2指令集。究其背景,原來"KNI"指令集是Intel公司最早為其下一代晶元命名的指令集名稱,而所謂的"MMX2"則完全是硬體評論家們和媒體憑感覺和印象對"KNI"的 評價,Intel公司從未正式發布過關於MMX2的消息。
而最終推出的SSE指令集也就是所謂勝出的"互聯網SSE"指令集。SSE指令集包括了70條指令,其中包含提高3D圖形運算效率的50條SIMD(單指令多數據技術)浮點運算指令、12條MMX 整數運算增強指令、8條優化內存中連續數據塊傳輸指令。理論上這些指令對目前流行的圖像處理、浮點運算、3D運算、視頻處理、音頻處理等諸多多媒體應用起到全面強化的作用。SSE指令與3DNow!指令彼此互不兼容,但SSE包含了3DNow!技術的絕大部分功能,只是實現的方法不同。SSE兼容MMX指令,它可以通過SIMD和單時鍾周期並行處理多個浮點數據來有效地提高浮點運算速度。
在後來Intel為了應對AMD的3Dnow!指令集,又在SSE的基礎上開發了SSE2,增加了一些指令,使得其P4處理器性能有大幅度提高。到P4設計結束為止,Intel增加了一套包括144條新建指令的SSE2指令集。像最早的SIMD擴展指令集,SSE2涉及了多重的數據目標上立刻執行一單個的指令(即SIMD,一個計算低工控最好的方法是讓每指令執行更多的工作)。最重要的是SSE2能處理128位和兩倍精密浮點數學運算。處理更精確浮點數的能力使SSE2成為加速多媒體程序、3D處理工程以及工作站類型任務的基礎配置。但重要的是軟體是否能適當的優化利用它。
3D Now!(3D no waiting)指令集
3DNow!是AMD公司開發的SIMD指令集,可以增強浮點和多媒體運算的速度,並被AMD廣泛應用於其K6-2 、K6-3以及Athlon(K7)處理器上。3DNow!指令集技術其實就是21條機器碼的擴展指令集。
與Intel公司的MMX技術側重於整數運算有所不同,3DNow!指令集主要針對三維建模、坐標變換 和效果渲染等三維應用場合,在軟體的配合下,可以大幅度提高3D處理性能。後來在Athlon上開發了Enhanced 3DNow!。這些AMD標準的SIMD指令和Intel的SSE具有相同效能。因為受到Intel在商業上以及Pentium III成功的影響,軟體在支持SSE上比起3DNow!更為普遍。Enhanced 3DNow!AMD公司繼續增加至52個指令,包含了一些SSE碼,因而在針對SSE做最佳化的軟體中能獲得更好的效能。
顯卡的指標
牌子,頻率,介面 顯卡晶元、顯存顆粒的型號、規格 還有渲染效果 象素管等等 還有散熱~~~
其中有三個主要指標:容量、頻率和顯存位寬。
1.容量
顯存擔負著系統與顯卡之間數據交換以及顯示晶元運算3D圖形時的數據緩存,因此顯存容量自然決定了顯示晶元能處理的數據量。理論上講,顯存越大,顯卡性能就越好。不過這只是理論上的計算而已,實際顯卡性能要受到很多因素的約束,如:顯示晶元速度,顯存位寬、顯存速度等。
2.時鍾周期和工作頻率
時鍾周期和顯存工作頻率是顯存非常重要的性能指標,它指的是顯存每處理一次數據要經過的時間。顯存速度越快,單位時間交換的數據量也就越大,在同等情況下顯卡性能將會得到明顯提升。顯存的時鍾周期一般以ns(納秒)為單位,工作頻率以MHz為單位。顯存時鍾周期跟工作頻率一一對應,它們之間的關系為:工作頻率=1÷時鍾周期×1000。
常見顯存時鍾周期有5ns、4ns、3.8ns、3.6ns、3.3ns、2.8ns。對於DDR SDRAM顯存來說,描述其工作頻率時用的是等效工作頻率。因為能在時鍾周期的上升沿和下降沿都能傳送數據,所以在工作頻率和數據位寬度相同的情況下,顯存帶寬是SDRAM的兩倍。換句話說,在顯存時鍾周期相同的情況下,DDR SDRAM顯存的實際工作頻率是SDRAM顯存的兩倍。例如,5ns的SDRAM顯存的工作頻率為200MHz,而5ns的DDR SDRAM顯存的等效工作頻率就是400MHz。目前市面上顯卡所採用的顯存都為DDR,SDR已經被淘汰了。
3.顯存位寬
顯存位寬是顯存也是顯卡的一個很重要的參數。可以理解成為數據進出通道的大小,顯然,在顯存速度(工作頻率)一樣的情況下,帶寬越大,數據的吞吐量可以越大,性能越好。就現在顯卡比較常見是64Bit和128Bit而言,很明顯的,在頻率相同的情況下,128Bit顯存的數據吞量是64Bit的兩倍(實際使用中達不到),性能定會增強不少。
顯存的三個主要參數已經介紹完了,接下來讓我們看看這三個主要參數的計算公式:
顯卡的內存容量=單顆顯存顆粒的容量X 顯存顆粒數量
顯卡的顯存位寬=單顆顯存位寬X 顯存顆粒數量
顯卡的顯存工作頻率=單顆顯存顆粒的工作頻率
知道了顯存的位寬和速度,我們就可以知道顯存的帶寬了,帶寬=工作頻率×顯存位寬÷8,之所以要除以8,是因為每8個bit(位)等於一個byte(位元組)。帶寬是顯存速度的最終衡量,數據吞吐量的大小也就是顯存的速度就看帶寬了。有些顯卡的顯存頻率高,但是位寬低,帶寬不高;有些們寬高,但是頻率低,帶寬也不高。
因此,為了能准確計算出一塊顯卡的顯存容量、速度、帶寬,我們必須從觀察一個顯存顆粒的大小以及數據位寬度開始。每顆顯存顆粒上雖然沒有明確標明以上所說的三個參數,但是它上面都印有編號,我們想要知道的三個參數都可以從這個編號上讀出。
主板、內存、硬碟、顯卡主要指標
主板匯流排頻率
HT 是超線程技術 CPU生產商為了提高CPU的性能,通常做法是提高CPU的時鍾頻率和增加緩存容量。不過目前CPU的頻率越來越快,如果再通過提升CPU頻率和增加緩存的方法來提高性能,往往會受到製造工藝上的限制以及成本過高的制約。有沒有其他方法可以提高CPU性能呢?事實上從Intel的實踐中得到一個很明確的答案。盡管提高CPU的時鍾頻率和增加緩存容量後的確可以改善性能,但這仍然不能完全發掘出CPU的潛能,基於很多原因,CPU的執行單元都沒有被充分使用。通常來講,如果CPU不能正常讀取數據(匯流排/內存的瓶頸),其執行單元利用率會明顯下降。另外一個理由就是目前大多數執行線程缺乏ILP(instruction-level parallelism,多種指令同時執行)支持。因此,Intel則考慮變一個思路去挖掘處理器的性能,如果有種方法可以同時執行多重線程,就能夠讓CPU發揮更大效率,那就是超線程(Hyper-Threading)技術,超線程技術減少了系統資源的浪費,可以把一顆CPU模擬成兩顆CPU使用,在同時間內更有效地利用資源來提高性能
FSB只指CPU與北橋晶元之間的數據傳輸速率,又稱前端匯流排。FSB=CPU外頻*4。
這個參數指的就是前端匯流排的頻率,它是處理器與主板交換數據的通道,既然是通道,那就是越大越好,現在主流中最高的FSB是800M,向下有533M、400M和333M等幾種,它們價格是遞減的。
內存頻率
內存主頻和CPU主頻一樣,習慣上被用來表示內存的速度,它代表著該內存所能達到的最高工作頻率。內存主頻是以MHz(兆赫)為單位來計量的。內存主頻越高在一定程度上代表著內存所能達到的速度越快。內存主頻決定著該內存最高能在什麼樣的頻率正常工作。目前較為主流的內存頻率室333MHz和400MHz的DDR內存,以及533MHz和667MHz的DDR2內存。
大家知道,計算機系統的時鍾速度是以頻率來衡量的。晶體振盪器控制著時鍾速度,在石英晶片上加上電壓,其就以正弦波的形式震動起來,這一震動可以通過晶片的形變和大小記錄下來。晶體的震動以正弦調和變化的電流的形式表現出來,這一變化的電流就是時鍾信號。而內存本身並不具備晶體振盪器,因此內存工作時的時鍾信號是由主板晶元組的北橋或直接由主板的時鍾發生器提供的,也就是說內存無法決定自身的工作頻率,其實際工作頻率是由主板來決定的。
DDR內存和DDR2內存的頻率可以用工作頻率和等效頻率兩種方式表示,工作頻率是內存顆粒實際的工作頻率,但是由於DDR內存可以在脈沖的上升和下降沿都傳輸數據,因此傳輸數據的等效頻率是工作頻率的兩倍;而DDR2內存每個時鍾能夠以四倍於工作頻率的速度讀/寫數據,因此傳輸數據的等效頻率是工作頻率的四倍。例如DDR 200/266/333/400的工作頻率分別是100/133/166/200MHz,而等效頻率分別是200/266/333/400MHz;DDR2 400/533/667/800的工作頻率分別是100/133/166/200MHz,而等效頻率分別是400/533/667/800MHz。

Ⅸ 什麼是直接內存訪問 (DMA)

DMA(Direct Memory Access),即直接存儲器存取,是一種快速傳送數據的機制。數據傳遞可以從適配卡到內存,從內存到適配卡或從一段內存到另一段內存。

利用它進行數據傳送時不需要CPU的參與。每台電腦主機板上都有DMA控制器,通常計算機對其編程,並用一個適配器上的ROM(如軟盤驅動控制器上的ROM)來儲存程序,這些程序控制DMA傳送數據。一旦控制器初始化完成,數據開始傳送,DMA就可以脫離CPU,獨立完成數據傳送。
在DMA傳送開始的短暫時間內,基本上有兩個處理器為它工作,一個執行程序代碼,一個傳送數據。利用DMA傳送數據的另一個好處是,數據直接在源地址和目的地址之間傳送,不需要中間媒介。如果通過CPU把一個位元組從適配卡傳送至內存,需要兩步操作。首先,CPU把這個位元組從適配卡讀到內部寄存器中,然後再從寄存器傳送到內存的適當地址。DMA控制器將這些操作簡化為一步,它操作匯流排上的控制信號,使寫位元組一次完成。這樣大大提高了計算機運行速度和工作效率。
計算機發展到今天,DMA已不再用於內存到內存的數據傳送,因為CPU速度非常快,做這件事,比用DMA控制還要快,但要在適配卡和內存之間傳送數據,仍然是非DMA莫屬。要從適配卡到內存傳送數據,DMA同時觸發從適配卡讀數據匯流排(即I/O讀操作)和向內存寫數據的匯流排。激活I/O讀操作就是讓適配卡把一個數據單位(通常是一個位元組或一個字)放到PC數據匯流排上,因為此時內存寫匯流排也被激活,數據就被同時從PC匯流排上拷貝到內存中。
直接內存訪問(DMA)方式是一種完全由硬體執行I/O交換的工作方式。DMA控制器從CPU完全接管對匯流排的控制。數據交換不經過CPU,而直接在內存和I/O設備之間進行。DMA控制器採用以下三種方式:
①停止CPU訪問內存:當外設要求傳送一批數據時,由DMA控制器發一個信號給CPU。DMA控制器獲得匯流排控制權後,開始進行數據傳送。一批數據傳送完畢後,DMA控制器通知CPU可以使用內存,並把匯流排控制權交還給CPU。
②周期挪用:當I/O設備沒有 DMA請求時,CPU按程序要求訪問內存:一旦 I/O設備有DMA請求,則I/O設備挪用一個或幾個周期。
③DMA與CPU交替訪內:一個CPU周期可分為2個周期,一個專供DMA控制器訪內,另一個專供CPU訪內。不需要匯流排使用權的申請、建立和歸還過程。

Ⅹ 內存操作有哪些

插拔內存
設置系統調用
設置虛擬內存
設置顯卡共享