比特檢視原始碼討論檢視歷史
比特 |
比特(BIT,Binary digit),計算機專業術語,是信息量單位,是由英文BIT音譯而來。同時也是二進制數字中的位,信息量的度量單位,為信息量的最小單位。在需要作出不同選擇的情況下把備選的刺激數量減少半所必需的信息。即信號的信息量(比特數)等於信號刺激量以2為底數的對數值。L.哈特萊1928年認為對信息量選用對數單位進行度量最合適。
簡介
兩個概念1)計算機專業術語,是信息量單位,是由英文BIT音譯而來。二進制數的一位所包含的信息就是一比特,如二進制數0100就是4比特。2)二進制數字中的位,信息量的度量單位,為信息量的最小單位。數字化文件中用二進制表示數據,「1」代表有脈衝信號,「0」代表脈衝間隔。如果波形上每個點的信息用四位一組的代碼表示,則稱4比特,比特數越高,表達模擬信號就越精確,對畫面的還原能力越強。位概念二進制數系統中,每個0或1就是一個位(bit),位是數據存儲的最小單位。其中8bit就稱為一個字節(Byte)。計算機中的CPU位數指的是CPU一次能處理的最大位數。例如32位計算機的CPU一次最多能處理32位數據。Bit,是Binary digit(二進制數)位的縮寫,是數學家John Wilder Tukey提議的術語(可能是1946年提出,但有資料稱1943年就提出了)。這個術語第一次被正式使用,是在香農著名的《信息論》,即《通信的數學理論》(A Mathematical Theory of Communication)論文之第1頁中。
評價
根據Nyquist的取樣理論,完整還原一個信號需要足夠的取樣頻率,他認為要把類比信號變成分立的符號(Discrete Time),取樣時的頻率至少要在原信號的兩倍以上。取樣是將模擬信號換成數字信號的第一步,但精密度仍嫌粗糙,所以超取樣的技術就出現了。一般超取樣就等於將空間頻率提高,取樣更密集,一方面提高精度,一方面經過圖像處理之後產生的類比信號比較完整,所需的低通濾波器(濾除畫面雜點)次數與斜率都可大幅降低,畫面失真也都會獲得巨大改善。不過超取樣後樣本之間就會產生許多空檔,這時需要有一些插入的樣本來保持信號完整,而這樣的任務就落在數字圖形濾波器身上(Digital Graphic Filter)。比較先進的設計是以GPU(Graphic Processing Unit)方式計算,以超高取樣來求得一個圓滑曲線,例如Krell的64倍超取樣,但只有Theta、Wadia、Krell、Vimak擁有這樣的技術。另一類數字濾波是事先將複雜程式與在晶片中,有類似GPU的功能,日本Denon、Pioneer 皆有這樣的設計。最普通的方法是利用大量生產的晶片,NPC、Burr-Brown都有成品供應,當然效果會受一些限制在數字濾波之後,就進入顯示器了,從這裡開始有單比特與多比特的區別。多比特是數字信號通過一個電流分配器(Current Switch),變成大小不同的電流輸出,因為數字信號是二進制關係,所以DAC的電流也以1、2、4、8的倍數排列。每一個比特分別控制一個電源分配器,隨著圖像信號變動,輸出電流也跟著改變,接下來是一個速度很快的I/V轉換線路,把這些電流變成電壓,再接下來經過低通濾波器,完整的圖像信號就出現了。一個二十比特的DAC,其輸出電流變化是1,048,576個,解析度已經相當高了。最常用的二十比特晶片有Burr-Brown的PCM-63與改良型PCM-1702,最貴的大概是Ultra-Analog的模組。[1]