① 大數據分析需要什麼軟體
大數據分析需要Hadoop。Hadoop是一個能夠對大扒瞎量數據進行分布式處理的軟體框架。但是Hadoop是以一尺橡種可靠、高效、可伸縮的春困空方式進行處理的。Hadoop是可靠的,因為它假設計算元素和存儲會失敗,因此它維護多個工作數據副本,確保能夠針對失敗的節點重新分布處理。Hadoop是高效的,因為它以並行的方式工作,通過並行處理加快處理速度。Hadoop還是可伸縮的,能夠處理PB級數據。此外,Hadoop依賴於社區伺服器,因此它的成本比較低,任何人都可以使用。
② 什麼是大數據分析Hadoop
要了解什麼是Hadoop,我們必須首先了解與大數據和傳統處理系統有關的問題。前進,我們將討論什麼是Hadoop,以及Hadoop如何解決與大數據相關的問題。我們還將研究CERN案例研究,以突出使用Hadoop的好處。
在之前的博客「 大數據教程」中,我們已經詳細討論了大數據以及大數據的挑戰。在此博客中,我們將討論:
1、傳統方法的問題
2、Hadoop的演變
3、Hadoop的
4、Hadoop即用解決方案
5、何時使用Hadoop?
6、什麼時候不使用Hadoop?
一、CERN案例研究
大數據正在成為組織的機會。現在,組織已經意識到他們可以通過大數據分析獲得很多好處,如下圖所示。他們正在檢查大型數據集,以發現所有隱藏的模式,未知的相關性,市場趨勢,客戶偏好和其他有用的業務信息。
這些分析結果正在幫助組織進行更有效的營銷,新的收入機會,更好的客戶服務。他們正在提高運營效率,與競爭對手組織相比的競爭優勢以及其他業務利益。
什麼是Hadoop –大數據分析的好處
因此,讓我們繼續前進,了解在兌現大數據機會方面與傳統方法相關的問題。
二、傳統方法的問題
在傳統方法中,主要問題是處理數據的異構性,即結構化,半結構化和非結構化。RDBMS主要關注於銀行交易,運營數據等結構化數據,而Hadoop則專注於文本,視頻,音頻,Facebook帖子,日誌等半結構化,非結構化數據。RDBMS技術是一種經過驗證的,高度一致,成熟的系統許多公司的支持。另一方面,由於大數據(主要由不同格式的非結構化數據組成)對Hadoop提出了需求。
現在讓我們了解與大數據相關的主要問題是什麼。因此,繼續前進,我們可以了解Hadoop是如何成為解決方案的。
什麼是Hadoop –大數據問題
第一個問題是存儲大量數據。
無法在傳統系統中存儲大量數據。原因很明顯,存儲將僅限於一個系統,並且數據正在以驚人的速度增長。
第二個問題是存儲異構數據。
現在,我們知道存儲是一個問題,但是讓我告訴您,這只是問題的一部分。由於我們討論了數據不僅龐大,而且還以各種格式存在,例如:非結構化,半結構化和結構化。因此,您需要確保您擁有一個系統來存儲從各種來源生成的所有這些種類的數據。
第三個問題是訪問和處理速度。
硬碟容量正在增加,但磁碟傳輸速度或訪問速度並未以相似的速度增加。讓我以一個示例為您進行解釋:如果您只有一個100 Mbps I / O通道,並且正在處理1TB數據,則大約需要2.91個小時。現在,如果您有四台具有一個I / O通道的計算機,則對於相同數量的數據,大約需要43分鍾。因此,與存儲大數據相比,訪問和處理速度是更大的問題。
在了解什麼是Hadoop之前,讓我們首先了解一下Hadoop在一段時間內的發展。
Hadoop的演變
2003年,道格·切特(Doug Cutting)啟動了Nutch項目,以處理數十億次搜索並為數百萬個網頁建立索引。2003年10月下旬– Google發布帶有GFS(Google文件系統)的論文。2004年12月,Google發布了MapRece論文。在2005年,Nutch使用GFS和MapRece進行操作。2006年,雅虎與Doug Cutting及其團隊合作,基於GFS和MapRece創建了Hadoop。如果我告訴您,您會感到驚訝,雅虎於2007年開始在1000個節點的群集上使用Hadoop。
2008年1月下旬,雅虎向Apache Software Foundation發布了Hadoop作為一個開源項目。2008年7月,Apache通過Hadoop成功測試了4000個節點的集群。2009年,Hadoop在不到17小時的時間內成功整理了PB級數據,以處理數十億次搜索並為數百萬個網頁建立索引。在2011年12月,Apache Hadoop發布了1.0版。2013年8月下旬,發布了2.0.6版。
當我們討論這些問題時,我們發現分布式系統可以作為解決方案,而Hadoop提供了相同的解決方案。現在,讓我們了解什麼是Hadoop。
三、什麼是Hadoop?
Hadoop是一個框架,它允許您首先在分布式環境中存儲大數據,以便可以並行處理它。 Hadoop中基本上有兩個組件:
1、大數據Hadoop認證培訓
2、講師指導的課程現實生活中的案例研究評估終身訪問探索課程
什麼是Hadoop – Hadoop即解決方案
第一個問題是存儲大數據。
HDFS提供了一種分布式大數據存儲方式。您的數據存儲在整個DataNode的塊中,您可以指定塊的大小。基本上,如果您擁有512MB的數據,並且已經配置了HDFS,那麼它將創建128MB的數據塊。 因此,HDFS將數據分為512/128 = 4的4個塊,並將其存儲在不同的DataNode上,還將在不同的DataNode上復制數據塊。現在,由於我們正在使用商品硬體,因此存儲已不是難題。
它還解決了縮放問題。它著重於水平縮放而不是垂直縮放。您始終可以根據需要隨時在HDFS群集中添加一些額外的數據節點,而不是擴展DataNodes的資源。讓我為您總結一下,基本上是用於存儲1 TB的數據,您不需要1 TB的系統。您可以在多個128GB或更少的系統上執行此操作。
下一個問題是存儲各種數據。
藉助HDFS,您可以存儲各種數據,無論是結構化,半結構化還是非結構化。由於在HDFS中,沒有預轉儲模式驗證。並且它也遵循一次寫入和多次讀取模型。因此,您只需寫入一次數據,就可以多次讀取數據以尋找見解。
Hird的挑戰是訪問和處理數據更快。
是的,這是大數據的主要挑戰之一。為了解決該問題,我們將處理移至數據,而不是將數據移至處理。這是什麼意思?而不是將數據移動到主節點然後進行處理。在MapRece中,處理邏輯被發送到各個從屬節點,然後在不同的從屬節點之間並行處理數據。然後,將處理後的結果發送到主節點,在該主節點上合並結果,並將響應發送回客戶端。
在YARN架構中,我們有ResourceManager和NodeManager。ResourceManager可能會或可能不會與NameNode配置在同一台機器上。 但是,應該將NodeManager配置在存在DataNode的同一台計算機上。
YARN通過分配資源和安排任務來執行您的所有處理活動。
什麼是Hadoop – YARN
它具有兩個主要組件,即ResourceManager和NodeManager。
ResourceManager再次是主節點。它接收處理請求,然後將請求的各個部分相應地傳遞到相應的NodeManager,什麼是大數據分析Hadoop在此進行實際處理。NodeManager安裝在每個DataNode上。它負責在每個單個DataNode上執行任務。
我希望現在您對什麼是Hadoop及其主要組件有所了解。讓我們繼續前進,了解何時使用和何時不使用Hadoop。
何時使用Hadoop?
Hadoop用於:
1、搜索 – Yahoo,亞馬遜,Zvents
2、日誌處理 – Facebook,雅虎
3、數據倉庫 – Facebook,AOL
4、視頻和圖像分析 –紐約時報,Eyealike
到目前為止,我們已經看到了Hadoop如何使大數據處理成為可能。但是在某些情況下,不建議使用Hadoop。