導航:首頁 > 數據處理 > 海量數據應該漲到多少

海量數據應該漲到多少

發布時間:2022-04-12 15:53:47

『壹』 603138 海量數據股吧

海量數據(603138.SH)公告,公司控股股東陳志敏、朱華威(合稱「控股股東」)未按規定在累計持股變動比例達到公司已發行股份的5%時停止減持,也未及時履行權益變動披露義務,從維護公司及廣大投資者利益角度出發,控股股東主動提出將違規減持收益所得上繳給公司。截至2021年12月2日,公司已收到控股股東主動上繳的違規減持收益所得共計4355.52萬元,至此控股股東已全部繳清本次違規減持收益所得金額。公司按照《企業會計准則》的有關規定對上述資金進行相應的會計處理,計入資本公積。
拓展資料:
1.北京海量數據技術研究院有限公司是2017-11-30在北京市海淀區注冊成立的有限責任公司,注冊地址位於北京市海淀區學院路30號科大天工大廈B座6層11室。其經營范圍是:工程和技術研究與試驗發展;技術開發、技術服務、技術轉讓、技術推廣、技術咨詢;軟體開發;數據處理;銷售自行開發的產品,對外投資3家公司。
2.科技服務類企業包括:運用現代科技知識、現代技術和分析研究方法,以及經驗、信息等要素向社會提供智力服務的新興產業,主要包括科學研究、專業技術服務、技術推廣、科技信息交流、科技培訓、技術咨詢、技術孵化、技術市場、知識產權服務、科技評估和科技鑒證等活動。科技服務業企業是現代服務業的重要組成部分,是推動產業結構升級優化的關鍵產業,是在當今產業不斷細化分工和產業不斷融合生長的趨勢下形成的新的產業分類。科技服務業企業是以技術和知識向社會提供服務的產業,其服務手段是技術和知識,服務對象是社會各行業;科技服務業屬於第三產業范疇,是第三產業的一個分支行業。

『貳』 海量數據能漲多少

特別提示:與其詢問別人把選擇權讓給別人,不如自己把握時機,自己學習股票的趨勢圖
個人炒股總結的小技巧:
前期炒股不要在乎錢,也不用盲目的買好多股,只買一隻,認真觀察這只股票的動向,你就會發現它有自己的走向趨勢與規律,從而總結自己的分析方法,去游俠股市系統學習,會給你不一樣的收獲。

『叄』 大數據與海量數據的區別

大數據與海量數據的區別

如果僅僅是海量的結構性數據,那麼解決的辦法就比較的單一,用戶通過購買更多的存儲設備,提高存儲設備的效率等解決此類問題。然而,當人們發現資料庫中的數據可以分為三種類型:結構性數據、非結構性數據以及半結構性數據等復雜情況時,問題似乎就沒有那麼簡單了。

大數據洶涌來襲

當類型復雜的數據洶涌襲來,那麼對於用戶IT系統的沖擊又會是另外一種處理方式。很多業內專家和第三方調查機構通過一些市場調查數據發現,大數據時代即將到來。有調查發現,這些復雜數據中有85%的數據屬於廣泛存在於社交網路、物聯網、電子商務等之中的非結構化數據。這些非結構化數據的產生往往伴隨著社交網路、移動計算和感測器等新的渠道和技術的不斷涌現和應用。

如今大數據的概念也存在著很多的炒作和大量的不確定性。為此,編者詳細向一些業內專家詳細了解有關方面的問題,請他們談一談,大數據是什麼和不是什麼,以及如何應對大數據等問題,將系列文章的形式與網友見面。

有人將多TB數據集也稱作」大數據」。據市場研究公司IDC統計,數據使用預計將增長44倍,全球數據使用量將達到大約35.2ZB(1ZB = 10億TB)。然而,單個數據集的文件尺寸也將增加,導致對更大處理能力的需求以便分析和理解這些數據集。

EMC曾經表示,它的1000多個客戶在其陣列中使用1PB(千兆兆)以上的數據數據,這個數字到2020年將增長到10萬。一些客戶在一兩年內還將開始使用數千倍多的數據,1EB(1艾位元組 = 10億GB)或者更多的數據。

對大企業而言,大數據的興起部分是因為計算能力可用更低的成本獲得,且各類系統如今已能夠執行多任務處理。其次,內存的成本也在直線下降,企業可以在內存中處理比以往更多的數據,另外是把計算機聚合成伺服器集群越來越簡單。IDC認為,這三大因素的結合便催生了大數據。同時,IDC還表示,某項技術要想成為大數據技術,首先必須是成本可承受的,其次是必須滿足IBM所描述的三個」V」判據中的兩個:多樣性(variety)、體量(volume)和速度(velocity)。

多樣性是指,數據應包含結構化的和非結構化的數據。

體量是指聚合在一起供分析的數據量必須是非常龐大的。

而速度則是指數據處理的速度必須很快。

大數據」並非總是說有數百個TB才算得上。根據實際使用情況,有時候數百個GB的數據也可稱為大數據,這主要要看它的第三個維度,也就是速度或者時間維度。

Garter表示,全球信息量正在以59%以上的年增長率增長,而量是在管理數據、業務方面的顯著挑戰,IT領袖必須側重在信息量、種類和速度上。

量:企業系統內部的數據量的增加是由交易量、其它傳統數據類型和新的數據類型引發的。過多的量是一個存儲的問題,但過多的數據也是一個大量分析的問題。

種類:IT領袖在將大量的交易信息轉化為決策上一直存在困擾 – 現在有更多類型的信息需要分析 – 主要來自社交媒體和移動(情景感知)。種類包括表格數據(資料庫)、分層數據、文件、電子郵件、計量數據、視頻、靜態圖像、音頻、股票行情數據、金融交易和其它更多種類。

速度:這涉及到數據流、結構化記錄的創建,以及訪問和交付的可用性。速度意味著正在被生成的數據有多快和數據必須被多快地處理以滿足需求。

雖然大數據是一個重大問題,Gartner分析師表示,真正的問題是讓大數據更有意義,在大數據裡面尋找模式幫助組織機構做出更好的商業決策。

諸子百家談如何定義」大數據」

盡管」Big Data」可以翻譯成大數據或者海量數據,但大數據和海量數據是有區別的。

定義一:大數據 = 海量數據 + 復雜類型的數據

Informatica中國區首席產品顧問但彬認為:」大數據」包含了」海量數據」的含義,而且在內容上超越了海量數據,簡而言之,」大數據」是」海量數據」+復雜類型的數據。

但彬進一步指出:大數據包括交易和交互數據集在內的所有數據集,其規模或復雜程度超出了常用技術按照合理的成本和時限捕捉、管理及處理這些數據集的能力。

大數據是由三項主要技術趨勢匯聚組成:

海量交易數據:在從 ERP應用程序到數據倉庫應用程序的在線交易處理(OLTP)與分析系統中,傳統的關系數據以及非結構化和半結構化信息仍在繼續增長。隨著企業將更多的數據和業務流程移向公共和私有雲,這一局面變得更加復雜。海量交互數據:這一新生力量由源於 Facebook、Twitter、LinkedIn 及其它來源的社交媒體數據構成。它包括了呼叫詳細記錄(CDR)、設備和感測器信息、GPS和地理定位映射數據、通過管理文件傳輸(Manage File Transfer)協議傳送的海量圖像文件、Web 文本和點擊流數據、科學信息、電子郵件等等。海量數據處理:大數據的涌現已經催生出了設計用於數據密集型處理的架構,例如具有開放源碼、在商品硬體群中運行的 Apache Hadoop。對於企業來說,難題在於以具備成本效益的方式快速可靠地從 Hadoop 中存取數據。

定義二:大數據包括A、B、C三個要素

如何理解大數據?NetApp 大中華區總經理陳文認為,大數據意味著通過更快獲取信息來使做事情的方式變得與眾不同,並因此實現突破。大數據被定義為大量數據(通常是非結構化的),它要求我們重新思考如何存儲、管理和恢復數據。那麼,多大才算大呢?考慮這個問題的一種方式就是,它是如此之大,以至於我們今天所使用的任何工具都無法處理它,因此,如何消化數據並把它轉化成有價值的洞見和信息,這其中的關鍵就是轉變。

基於從客戶那裡了解的工作負載要求,NetApp所理解的大數據包括A、B、C三個要素:分析(Analytic),帶寬(Bandwidth)和內容(Content)。

1. 大分析(Big Analytics),幫助獲得洞見 – 指的是對巨大數據集進行實時分析的要求,它能帶來新的業務模式,更好的客戶服務,並實現更好的結果。

2. 高帶寬(Big Bandwidth),幫助走得更快 – 指的是處理極端高速的關鍵數據的要求。它支持快速有效地消化和處理大型數據集。

3. 大內容(Big Content),不丟失任何信息- 指的是對於安全性要求極高的高可擴展的數據存儲,並能夠輕松實現恢復。它支持可管理的信息內容存儲庫、而不只是存放過久的數據,並且能夠跨越不同的大陸板塊。

大數據是一股突破性的經濟和技術力量,它為 IT 支持引入了新的基礎架構。大數據解決方案消除了傳統的計算和存儲的局限。藉助於不斷增長的私密和公開數據,一種劃時代的新商業模式正在興起,它有望為大數據客戶帶來新的實質性的收入增長點以及富於競爭力的優勢。

以上是小編為大家分享的關於大數據與海量數據的區別的相關內容,更多信息可以關注環球青藤分享更多干貨

『肆』 「大數據」與「海量數據」有哪些區別

1、范圍不同

」大數據」包含了」海量數據」,大數據 = 海量數據 + 復雜類型的數據。

2、內容不同

大數據在內容上超越了海量數據,大數據包括交易和交互數據集在內的所有數據集,其規模或復雜程度超出了常用技術按照合理的成本和時限捕捉、管理及處理這些數據集的能力。

(4)海量數據應該漲到多少擴展閱讀:

大數據是由三項主要技術趨勢匯聚組成:

1、海量交易數據:在從 ERP應用程序到數據倉庫應用程序的在線交易處理(OLTP)與分析系統中,傳統的關系數據以及非結構化和半結構化信息仍在繼續增長。隨著企業將更多的數據和業務流程移向公共和私有雲,這一局面變得更加復雜。

2、海量交互數據:這一新生力量由源於 Facebook、Twitter、LinkedIn 及其它來源的社交媒體數據構成。它包括了呼叫詳細記錄(CDR)、設備和感測器信息、GPS和地理定位映射數據、通過管理文件傳輸(Manage File Transfer)協議傳送的海量圖像文件、Web 文本和點擊流數據、科學信息、電子郵件等等。

3、海量數據處理:大數據的涌現已經催生出了設計用於數據密集型處理的架構,例如具有開放源碼、在商品硬體群中運行的 Apache Hadoop。對於企業來說,難題在於以具備成本效益的方式快速可靠地從 Hadoop 中存取數據。

『伍』 海量數據股票代碼多少

你好,海量數據股票代碼[603138]
補充:
今開: 52.73 最高: 56.00 漲停: 59.30 換手: 10.09% 成交量: 2.07萬手 市盈: 174.19 總市值: 44.00億
昨收: 53.91 最低: 52.46 跌停: 48.52 量比: 0.79 成交額: 1.12億 市凈: 12.91 流通市值: 11.00億

『陸』 介紹一下海量數據的處理方法

介紹一下海量數據的處理方法
適用范圍:可以用來實現數據字典,進行數據的判重,或者集合求交集
基本原理及要點:
對於原理來說很簡單,位數組+k個獨立hash函數。將hash函數對應的值的位數組置1,查找時如果發現所有hash函數對應位都是1說明存在,很明顯這個過程並不保證查找的結果是100%正確的。同時也不支持刪除一個已經插入的關鍵字,因為該關鍵字對應的位會牽動到其他的關鍵字。所以一個簡單的改進就是 counting Bloom filter,用一個counter數組代替位數組,就可以支持刪除了。
還有一個比較重要的問題,如 何根據輸入元素個數n,確定位數組m的大小及hash函數個數。當hash函數個數k=(ln2)*(m/n)時錯誤率最小。在錯誤率不大於E的情況 下,m至少要等於n*lg(1/E)才能表示任意n個元素的集合。但m還應該更大些,因為還要保證bit數組里至少一半為0,則m應 該>=nlg(1/E)*lge 大概就是nlg(1/E)1.44倍(lg表示以2為底的對數)。
舉個例子我們假設錯誤率為0.01,則此時m應大概是n的13倍。這樣k大概是8個。
注意這里m與n的單位不同,m是bit為單位,而n則是以元素個數為單位(准確的說是不同元素的個數)。通常單個元素的長度都是有很多bit的。所以使用bloom filter內存上通常都是節省的。
擴展:
Bloom filter將集合中的元素映射到位數組中,用k(k為哈希函數個數)個映射位是否全1表示元素在不在這個集合中。Counting bloom filter(CBF)將位數組中的每一位擴展為一個counter,從而支持了元素的刪除操作。Spectral Bloom Filter(SBF)將其與集合元素的出現次數關聯。SBF採用counter中的最小值來近似表示元素的出現頻率。
問題實例:給你A,B兩個文件,各存放50億條URL,每條URL佔用64位元組,內存限制是4G,讓你找出A,B文件共同的URL。如果是三個乃至n個文件呢?
根據這個問題我們來計算下內存的佔用,4G=2^32大概是40億*8大概是340億,n=50億,如果按出錯率0.01算需要的大概是650億個bit。 現在可用的是340億,相差並不多,這樣可能會使出錯率上升些。另外如果這些urlip是一一對應的,就可以轉換成ip,則大大簡單了。
2.Hashing
適用范圍:快速查找,刪除的基本數據結構,通常需要總數據量可以放入內存
基本原理及要點:
hash函數選擇,針對字元串,整數,排列,具體相應的hash方法。
碰撞處理,一種是open hashing,也稱為拉鏈法;另一種就是closed hashing,也稱開地址法,opened addressing。
擴展:
d-left hashing中的d是多個的意思,我們先簡化這個問題,看一看2-left hashing。2-left hashing指的是將一個哈希表分成長度相等的兩半,分別叫做T1和T2,給T1和T2分別配備一個哈希函數,h1和h2。在存儲一個新的key時,同時用兩個哈希函數進行計算,得出兩個地址h1[key]和h2[key]。這時需要檢查T1中的h1[key]位置和T2中的h2[key]位置,哪一個位置已經存儲的(有碰撞的)key比較多,然後將新key存儲在負載少的位置。如果兩邊一樣多,比如兩個位置都為空或者都存儲了一個key,就把新key 存儲在左邊的T1子表中,2-left也由此而來。在查找一個key時,必須進行兩次hash,同時查找兩個位置。
問題實例:1).海量日誌數據,提取出某日訪問網路次數最多的那個IP。

IP的數目還是有限的,最多2^32個,所以可以考慮使用hash將ip直接存入內存,然後進行統計。

3.bit-map

適用范圍:可進行數據的快速查找,判重,刪除,一般來說數據范圍是int的10倍以下

基本原理及要點:使用bit數組來表示某些元素是否存在,比如8位電話號碼

擴展:bloom filter可以看做是對bit-map的擴展

問題實例:

1)已知某個文件內包含一些電話號碼,每個號碼為8位數字,統計不同號碼的個數。

8位最多99 999 999,大概需要99m個bit,大概10幾m位元組的內存即可。

2)2.5億個整數中找出不重復的整數的個數,內存空間不足以容納這2.5億個整數。

將bit-map擴展一下,用2bit表示一個數即可,0表示未出現,1表示出現一次,2表示出現2次及以上。或者我們不用2bit來進行表示,我們用兩個bit-map即可模擬實現這個2bit-map。

4.堆

適用范圍:海量數據前n大,並且n比較小,堆可以放入內存

基本原理及要點:最大堆求前n小,最小堆求前n大。方法,比如求前n小,我們比較當前元素與最大堆里的最大元素,如果它小於最大元素,則應該替換那個最大元 素。這樣最後得到的n個元素就是最小的n個。適合大數據量,求前n小,n的大小比較小的情況,這樣可以掃描一遍即可得到所有的前n元素,效率很高。

擴展:雙堆,一個最大堆與一個最小堆結合,可以用來維護中位數。

問題實例:
1)100w個數中找最大的前100個數。

用一個100個元素大小的最小堆即可。

5.雙層桶劃分

適用范圍:第k大,中位數,不重復或重復的數字

基本原理及要點:因為元素范圍很大,不能利用直接定址表,所以通過多次劃分,逐步確定范圍,然後最後在一個可以接受的范圍內進行。可以通過多次縮小,雙層只是一個例子。

擴展:

問題實例:
1).2.5億個整數中找出不重復的整數的個數,內存空間不足以容納這2.5億個整數。

有點像鴿巢原理,整數個數為2^32,也就是,我們可以將這2^32個數,劃分為2^8個區域(比如用單個文件代表一個區域),然後將數據分離到不同的區域,然後不同的區域在利用bitmap就可以直接解決了。也就是說只要有足夠的磁碟空間,就可以很方便的解決。

2).5億個int找它們的中位數。

這個例子比上面那個更明顯。首先我們將int劃分為2^16個區域,然後讀取數據統計落到各個區域里的數的個數,之後我們根據統計結果就可以判斷中位數落到那個區域,同時知道這個區域中的第幾大數剛好是中位數。然後第二次掃描我們只統計落在這個區域中的那些數就可以了。

實際上,如果不是int是int64,我們可以經過3次這樣的劃分即可降低到可以接受的程度。即可以先將int64分成2^24個區域,然後確定區域的第幾 大數,在將該區域分成2^20個子區域,然後確定是子區域的第幾大數,然後子區域里的數的個數只有2^20,就可以直接利用direct addr table進行統計了。

6.資料庫索引

適用范圍:大數據量的增刪改查

基本原理及要點:利用數據的設計實現方法,對海量數據的增刪改查進行處理。
擴展:
問題實例:

7.倒排索引(Inverted index)

適用范圍:搜索引擎,關鍵字查詢

基本原理及要點:為何叫倒排索引?一種索引方法,被用來存儲在全文搜索下某個單詞在一個文檔或者一組文檔中的存儲位置的映射。

以英文為例,下面是要被索引的文本:
T0 = 「it is what it is」
T1 = 「what is it」
T2 = 「it is a banana」
我們就能得到下面的反向文件索引:
「a」: {2}
「banana」: {2}
「is」: {0, 1, 2}
「it」: {0, 1, 2}
「what」: {0, 1}
檢索的條件」what」, 「is」 和 「it」 將對應集合的交集。

正 向索引開發出來用來存儲每個文檔的單詞的列表。正向索引的查詢往往滿足每個文檔有序頻繁的全文查詢和每個單詞在校驗文檔中的驗證這樣的查詢。在正向索引中,文檔占據了中心的位置,每個文檔指向了一個它所包含的索引項的序列。也就是說文檔指向了它包含的那些單詞,而反向索引則是單詞指向了包含它的文檔,很 容易看到這個反向的關系。

擴展:

問題實例:文檔檢索系統,查詢那些文件包含了某單詞,比如常見的學術論文的關鍵字搜索。

8.外排序

適用范圍:大數據的排序,去重

基本原理及要點:外排序的歸並方法,置換選擇 敗者樹原理,最優歸並樹

擴展:

問題實例:
1).有一個1G大小的一個文件,裡面每一行是一個詞,詞的大小不超過16個位元組,內存限制大小是1M。返回頻數最高的100個詞。

這個數據具有很明顯的特點,詞的大小為16個位元組,但是內存只有1m做hash有些不夠,所以可以用來排序。內存可以當輸入緩沖區使用。

9.trie樹

適用范圍:數據量大,重復多,但是數據種類小可以放入內存

基本原理及要點:實現方式,節點孩子的表示方式

擴展:壓縮實現。

問題實例:
1).有10個文件,每個文件1G, 每個文件的每一行都存放的是用戶的query,每個文件的query都可能重復。要你按照query的頻度排序 。

2).1000萬字元串,其中有些是相同的(重復),需要把重復的全部去掉,保留沒有重復的字元串。請問怎麼設計和實現?

3).尋找熱門查詢:查詢串的重復度比較高,雖然總數是1千萬,但如果除去重復後,不超過3百萬個,每個不超過255位元組。

10.分布式處理 maprece

適用范圍:數據量大,但是數據種類小可以放入內存

基本原理及要點:將數據交給不同的機器去處理,數據劃分,結果歸約。

擴展:

問題實例:

1).The canonical example application of MapRece is a process to count the appearances of

each different word in a set of documents:
void map(String name, String document):
// name: document name
// document: document contents
for each word w in document:
EmitIntermediate(w, 1);

void rece(String word, Iterator partialCounts):
// key: a word
// values: a list of aggregated partial counts
int result = 0;
for each v in partialCounts:
result += ParseInt(v);
Emit(result);
Here, each document is split in words, and each word is counted initially with a 「1″ value by

the Map function, using the word as the result key. The framework puts together all the pairs

with the same key and feeds them to the same call to Rece, thus this function just needs to

sum all of its input values to find the total appearances of that word.

2).海量數據分布在100台電腦中,想個辦法高效統計出這批數據的TOP10。

3).一共有N個機器,每個機器上有N個數。每個機器最多存O(N)個數並對它們操作。如何找到N^2個數的中數(median)?

經典問題分析

上千萬or億數據(有重復),統計其中出現次數最多的前N個數據,分兩種情況:可一次讀入內存,不可一次讀入。

可用思路:trie樹+堆,資料庫索引,劃分子集分別統計,hash,分布式計算,近似統計,外排序

所 謂的是否能一次讀入內存,實際上應該指去除重復後的數據量。如果去重後數據可以放入內存,我們可以為數據建立字典,比如通過 map,hashmap,trie,然後直接進行統計即可。當然在更新每條數據的出現次數的時候,我們可以利用一個堆來維護出現次數最多的前N個數據,當 然這樣導致維護次數增加,不如完全統計後在求前N大效率高。

如果數據無法放入內存。一方面我們可以考慮上面的字典方法能否被改進以適應這種情形,可以做的改變就是將字典存放到硬碟上,而不是內存,這可以參考資料庫的存儲方法。
當然還有更好的方法,就是可以採用分布式計算,基本上就是map-rece過程,首先可以根據數據值或者把數據hash(md5)後的值,將數據按照范圍劃分到不同的機子,最好可以讓數據劃分後可以一次讀入內存,這樣不同的機子負責處理各種的數值范圍,實際上就是map。得到結果後,各個機子只需拿出各 自的出現次數最多的前N個數據,然後匯總,選出所有的數據中出現次數最多的前N個數據,這實際上就是rece過程。
實際上可能想直接將數據均分到不同的機子上進行處理,這樣是無法得到正確的解的。因為一個數據可能被均分到不同的機子上,而另一個則可能完全聚集到一個機子上,同時還可 能存在具有相同數目的數據。比如我們要找出現次數最多的前100個,我們將1000萬的數據分布到10台機器上,找到每台出現次數最多的前 100個,歸並之後這樣不能保證找到真正的第100個,因為比如出現次數最多的第100個可能有1萬個,但是它被分到了10台機子,這樣在每台上只有1千個,假設這些機子排名在1000個之前的那些都是單獨分布在一台機子上的,比如有1001個,這樣本來具有1萬個的這個就會被淘汰,即使我們讓每台機子選出出現次數最多的1000個再歸並,仍然會出錯,因為可能存在大量個數為1001個的發生聚集。因此不能將數據隨便均分到不同機子上,而是要根據hash 後的值將它們映射到不同的機子上處理,讓不同的機器處理一個數值范圍。
而外排序的方法會消耗大量的IO,效率不會很高。而上面的分布式方法,也可以用於單機版本,也就是將總的數據根據值的范圍,劃分成多個不同的子文件,然後逐個處理。處理完畢之後再對這些單詞的及其出現頻率進行一個歸並。實際上就可以利用一個外排序的歸並過程。
另外還可以考慮近似計算,也就是我們可以通過結合自然語言屬性,只將那些真正實際中出現最多的那些詞作為一個字典,使得這個規模可以放入內存。

『柒』 海量數據的介紹

海量數據是北京海量數據技術股份有限公司的簡稱,創立於2007年,是中國領先的數據技術服務提供商,業務涵蓋數據技術的系統集成、技術服務和產品研發,旗下控股2家子公司:北京海量雲信息技術有限公司、海量雲圖(北京)數據技術有限公司。公司總部設在北京,在沈陽、濟南、上海、南京、武漢、廣州、深圳、成都、西安等多個城市設有辦事機構,海量數據自成立以來一直保持強勁發展勢頭,年均復合增長率超過35%。

『捌』 如何處理海量數據

在實際的工作環境下,許多人會遇到海量數據這個復雜而艱巨的問題,它的主要難點有以下幾個方面:
一、數據量過大,數據中什麼情況都可能存在。
如果說有10條數據,那麼大不了每條去逐一檢查,人為處理,如果有上百條數據,也可以考慮,如果數據上到千萬級別,甚至 過億,那不是手工能解決的了,必須通過工具或者程序進行處理,尤其海量的數據中,什麼情況都可能存在,例如,數據中某處格式出了問題,尤其在程序處理時, 前面還能正常處理,突然到了某個地方問題出現了,程序終止了。
二、軟硬體要求高,系統資源佔用率高。
對海量的數據進行處理,除了好的方法,最重要的就是合理使用工具,合理分配系統資源。一般情況,如果處理的數據過TB級,小型機是要考慮的,普通的機子如果有好的方法可以考慮,不過也必須加大CPU和內存,就象面對著千軍萬馬,光有勇氣沒有一兵一卒是很難取勝的。
三、要求很高的處理方法和技巧。
這也是本文的寫作目的所在,好的處理方法是一位工程師長期工作經驗的積累,也是個人的經驗的總結。沒有通用的處理方法,但有通用的原理和規則。
下面我們來詳細介紹一下處理海量數據的經驗和技巧:
一、選用優秀的資料庫工具
現在的資料庫工具廠家比較多,對海量數據的處理對所使用的資料庫工具要求比較高,一般使用Oracle或者DB2,微軟 公司最近發布的SQL Server 2005性能也不錯。另外在BI領域:資料庫,數據倉庫,多維資料庫,數據挖掘等相關工具也要進行選擇,象好的ETL工具和好的OLAP工具都十分必要, 例如Informatic,Eassbase等。筆者在實際數據分析項目中,對每天6000萬條的日誌數據進行處理,使用SQL Server 2000需要花費6小時,而使用SQL Server 2005則只需要花費3小時。
二、編寫優良的程序代碼
處理數據離不開優秀的程序代碼,尤其在進行復雜數據處理時,必須使用程序。好的程序代碼對數據的處理至關重要,這不僅僅是數據處理准確度的問題,更是數據處理效率的問題。良好的程序代碼應該包含好的演算法,包含好的處理流程,包含好的效率,包含好的異常處理機制等。
三、對海量數據進行分區操作
對海量數據進行分區操作十分必要,例如針對按年份存取的數據,我們可以按年進行分區,不同的資料庫有不同的分區方式,不 過處理機制大體相同。例如SQL Server的資料庫分區是將不同的數據存於不同的文件組下,而不同的文件組存於不同的磁碟分區下,這樣將數據分散開,減小磁碟I/O,減小了系統負荷, 而且還可以將日誌,索引等放於不同的分區下。
四、建立廣泛的索引
對海量的數據處理,對大表建立索引是必行的,建立索引要考慮到具體情況,例如針對大表的分組、排序等欄位,都要建立相應 索引,一般還可以建立復合索引,對經常插入的表則建立索引時要小心,筆者在處理數據時,曾經在一個ETL流程中,當插入表時,首先刪除索引,然後插入完 畢,建立索引,並實施聚合操作,聚合完成後,再次插入前還是刪除索引,所以索引要用到好的時機,索引的填充因子和聚集、非聚集索引都要考慮。
五、建立緩存機制
當數據量增加時,一般的處理工具都要考慮到緩存問題。緩存大小設置的好差也關繫到數據處理的成敗,例如,筆者在處理2億條數據聚合操作時,緩存設置為100000條/Buffer,這對於這個級別的數據量是可行的。
六、加大虛擬內存
如果系統資源有限,內存提示不足,則可以靠增加虛擬內存來解決。筆者在實際項目中曾經遇到針對18億條的數據進行處理, 內存為1GB,1個P42.4G的CPU,對這么大的數據量進行聚合操作是有問題的,提示內存不足,那麼採用了加大虛擬內存的方法來解決,在6塊磁碟分區 上分別建立了6個4096M的磁碟分區,用於虛擬內存,這樣虛擬的內存則增加為 4096*6 + 1024 =25600 M,解決了數據處理中的內存不足問題。
七、分批處理
海量數據處理難因為數據量大,那麼解決海量數據處理難的問題其中一個技巧是減少數據量。可以對海量數據分批處理,然後處 理後的數據再進行合並操作,這樣逐個擊破,有利於小數據量的處理,不至於面對大數據量帶來的問題,不過這種方法也要因時因勢進行,如果不允許拆分數據,還 需要另想辦法。不過一般的數據按天、按月、按年等存儲的,都可以採用先分後合的方法,對數據進行分開處理。
八、使用臨時表和中間表
數據量增加時,處理中要考慮提前匯總。這樣做的目的是化整為零,大表變小表,分塊處理完成後,再利用一定的規則進行合 並,處理過程中的臨時表的使用和中間結果的保存都非常重要,如果對於超海量的數據,大表處理不了,只能拆分為多個小表。如果處理過程中需要多步匯總操作, 可按匯總步驟一步步來,不要一條語句完成,一口氣吃掉一個胖子。
九、優化查詢SQL語句
在對海量數據進行查詢處理過程中,查詢的SQL語句的性能對查詢效率的影響是非常大的,編寫高效優良的SQL腳本和存儲 過程是資料庫工作人員的職責,也是檢驗資料庫工作人員水平的一個標准,在對SQL語句的編寫過程中,例如減少關聯,少用或不用游標,設計好高效的資料庫表 結構等都十分必要。筆者在工作中試著對1億行的數據使用游標,運行3個小時沒有出結果,這是一定要改用程序處理了。
十、使用文本格式進行處理
對一般的數據處理可以使用資料庫,如果對復雜的數據處理,必須藉助程序,那麼在程序操作資料庫和程序操作文本之間選擇, 是一定要選擇程序操作文本的,原因為:程序操作文本速度快;對文本進行處理不容易出錯;文本的存儲不受限制等。例如一般的海量的網路日誌都是文本格式或者 csv格式(文本格式),對它進行處理牽扯到數據清洗,是要利用程序進行處理的,而不建議導入資料庫再做清洗。
十一、定製強大的清洗規則和出錯處理機制
海量數據中存在著不一致性,極有可能出現某處的瑕疵。例如,同樣的數據中的時間欄位,有的可能為非標準的時間,出現的原因可能為應用程序的錯誤,系統的錯誤等,這是在進行數據處理時,必須制定強大的數據清洗規則和出錯處理機制。
十二、建立視圖或者物化視圖
視圖中的數據來源於基表,對海量數據的處理,可以將數據按一定的規則分散到各個基表中,查詢或處理過程中可以基於視圖進行,這樣分散了磁碟I/O,正如10根繩子吊著一根柱子和一根吊著一根柱子的區別。
十三、避免使用32位機子(極端情況)
目前的計算機很多都是32位的,那麼編寫的程序對內存的需要便受限制,而很多的海量數據處理是必須大量消耗內存的,這便要求更好性能的機子,其中對位數的限制也十分重要。
十四、考慮操作系統問題
海量數據處理過程中,除了對資料庫,處理程序等要求比較高以外,對操作系統的要求也放到了重要的位置,一般是必須使用伺服器的,而且對系統的安全性和穩定性等要求也比較高。尤其對操作系統自身的緩存機制,臨時空間的處理等問題都需要綜合考慮。
十五、使用數據倉庫和多維資料庫存儲
數據量加大是一定要考慮OLAP的,傳統的報表可能5、6個小時出來結果,而基於Cube的查詢可能只需要幾分鍾,因此處理海量數據的利器是OLAP多維分析,即建立數據倉庫,建立多維數據集,基於多維數據集進行報表展現和數據挖掘等。
十六、使用采樣數據,進行數據挖掘
基於海量數據的數據挖掘正在逐步興起,面對著超海量的數據,一般的挖掘軟體或演算法往往採用數據抽樣的方式進行處理,這樣 的誤差不會很高,大大提高了處理效率和處理的成功率。一般采樣時要注意數據的完整性和,防止過大的偏差。筆者曾經對1億2千萬行的表數據進行采樣,抽取出 400萬行,經測試軟體測試處理的誤差為千分之五,客戶可以接受。
還有一些方法,需要在不同的情況和場合下運用,例如使用代理鍵等操作,這樣的好處是加快了聚合時間,因為對數值型的聚合比對字元型的聚合快得多。類似的情況需要針對不同的需求進行處理。
海量數據是發展趨勢,對數據分析和挖掘也越來越重要,從海量數據中提取有用信息重要而緊迫,這便要求處理要准確,精度要高,而且處理時間要短,得到有價值信息要快,所以,對海量數據的研究很有前途,也很值得進行廣泛深入的研究。

閱讀全文

與海量數據應該漲到多少相關的資料

熱點內容
上海團購小程序多少錢 瀏覽:595
雙十一成交數據什麼概念 瀏覽:424
小數據怎麼換分數 瀏覽:630
王者榮耀怎麼樣玩技術才會好 瀏覽:754
子騰電話手錶怎麼安裝程序 瀏覽:918
批發市場哪裡便宜實惠 瀏覽:559
廣州南沙進口代理報關怎麼操作 瀏覽:219
觸摸驅動程序哪裡下載 瀏覽:920
孟加拉產品有哪些 瀏覽:989
農產品直播為什麼那麼火 瀏覽:996
數據包是多少kb 瀏覽:85
如何通過二維碼查詢產品 瀏覽:325
西安啤酒代理要多少錢 瀏覽:941
聊城人事代理怎麼找工作 瀏覽:530
麻省理工技術學院在哪裡 瀏覽:785
烏海市貨車怎麼進入302市場 瀏覽:654
乳白的產品出現白紋怎麼解決 瀏覽:656
當日交易次數是多少 瀏覽:649
靖江市如何申請農產品深加工補貼 瀏覽:686
哪裡有學習飛行技術的 瀏覽:463