『壹』 誰有關於ETL、ODS、資料庫技術架構的形象一點的解釋
ETL是一個過程,就是數據的抽取,轉換,載入,現在中間都有個數據清洗的過程。ODS通俗將是ETL後最先進入的一個數據倉庫,之前的數據可能包含DB2,SQL SERVER,ORACLE等不同類型的數據源,通過ETL後,進入統一的資料庫中,這個庫就是ODS,裡面只是存放了清洗過後的數據,格式,編碼等統一。後面會根據不同的行業和需求,進SOR數據倉庫,再向下游提供數據,期間會有各種邏輯啊,修改自己需要的數據,打亂原有表結構重新組合。我所知道的就這些,希望對你有幫助
『貳』 數據倉庫與ODS的區別,數據倉庫和ODS並存方案
一直想整理一下這塊內容,既然是漫談,就想起什麼說什麼吧。我一直是在互聯網行業,就以互聯網行業來說。先大概列一下互聯網行業數據倉庫、數據平台的用途:
整合公司所有業務數據,建立統一的數據中心;
提供各種報表,有給高層的,有給各個業務的;
為網站運營提供運營上的數據支持,就是通過數據,讓運營及時了解網站和產品的運營效果;
為各個業務提供線上或線下的數據支持,成為公司統一的數據交換與提供平台;
分析用戶行為數據,通過數據挖掘來降低投入成本,提高投入效果;比如廣告定向精準投放、用戶個性化推薦等;
開發數據產品,直接或間接為公司盈利;
建設開放數據平台,開放公司數據;
。。。。。。
上面列出的內容看上去和傳統行業數據倉庫用途差不多,並且都要求數據倉庫/數據平台有很好的穩定性、可靠性;但在互聯網行業,除了數據量大之外,越來越多的業務要求時效性,甚至很多是要求實時的 ,另外,互聯網行業的業務變化非常快,不可能像傳統行業一樣,可以使用自頂向下的方法建立數據倉庫,一勞永逸,它要求新的業務很快能融入數據倉庫中來,老的下線的業務,能很方便的從現有的數據倉庫中下線;
其實,互聯網行業的數據倉庫就是所謂的敏捷數據倉庫,不但要求能快速的響應數據,也要求能快速的響應業務;
建設敏捷數據倉庫,除了對架構技術上的要求之外,還有一個很重要的方面,就是數據建模,如果一上來就想著建立一套能兼容所有數據和業務的數據模型,那就又回到傳統數據倉庫的建設上了,很難滿足對業務變化的快速響應。應對這種情況,一般是先將核心的持久化的業務進行深度建模(比如:基於網站日誌建立的網站統計分析模型和用戶瀏覽軌跡模型;基於公司核心用戶數據建立的用戶模型),其它的業務一般都採用維度+寬表的方式來建立數據模型。這塊是後話。
整體架構下面的圖是我們目前使用的數據平台架構圖,其實大多公司應該都差不多:
邏輯上,一般都有數據採集層、數據存儲與分析層、數據共享層、數據應用層。可能叫法有所不同,本質上的角色都大同小異。
我們從下往上看:
數據採集數據採集層的任務就是把數據從各種數據源中採集和存儲到數據存儲上,期間有可能會做一些簡單的清洗。
數據源的種類比較多:
網站日誌:
作為互聯網行業,網站日誌占的份額最大,網站日誌存儲在多台網站日誌伺服器上,
一般是在每台網站日誌伺服器上部署flume agent,實時的收集網站日誌並存儲到HDFS上;
業務資料庫:
業務資料庫的種類也是多種多樣,有Mysql、Oracle、SqlServer等,這時候,我們迫切的需要一種能從各種資料庫中將數據同步到HDFS上的工具,Sqoop是一種,但是Sqoop太過繁重,而且不管數據量大小,都需要啟動MapRece來執行,而且需要Hadoop集群的每台機器都能訪問業務資料庫;應對此場景,淘寶開源的DataX,是一個很好的解決方案(可參考文章 《異構數據源海量數據交換工具-Taobao DataX 下載和使用》),有資源的話,可以基於DataX之上做二次開發,就能非常好的解決,我們目前使用的DataHub也是。
當然,Flume通過配置與開發,也可以實時的從資料庫中同步數據到HDFS。
來自於Ftp/Http的數據源:
有可能一些合作夥伴提供的數據,需要通過Ftp/Http等定時獲取,DataX也可以滿足該需求;
其他數據源:
比如一些手工錄入的數據,只需要提供一個介面或小程序,即可完成;
數據存儲與分析毋庸置疑,HDFS是大數據環境下數據倉庫/數據平台最完美的數據存儲解決方案。
離線數據分析與計算,也就是對實時性要求不高的部分,在我看來,Hive還是首當其沖的選擇,豐富的數據類型、內置函數;壓縮比非常高的ORC文件存儲格式;非常方便的SQL支持,使得Hive在基於結構化數據上的統計分析遠遠比MapRece要高效的多,一句SQL可以完成的需求,開發MR可能需要上百行代碼;
當然,使用Hadoop框架自然而然也提供了MapRece介面,如果真的很樂意開發Java,或者對SQL不熟,那麼也可以使用MapRece來做分析與計算;Spark是這兩年非常火的,經過實踐,它的性能的確比MapRece要好很多,而且和Hive、Yarn結合的越來越好,因此,必須支持使用Spark和SparkSQL來做分析和計算。因為已經有Hadoop Yarn,使用Spark其實是非常容易的,不用單獨部署Spark集群,關於Spark On Yarn的相關文章,可參考:《Spark On Yarn系列文章》
實時計算部分,後面單獨說。
數據共享這里的數據共享,其實指的是前面數據分析與計算後的結果存放的地方,其實就是關系型資料庫和NOSQL資料庫;
前面使用Hive、MR、Spark、SparkSQL分析和計算的結果,還是在HDFS上,但大多業務和應用不可能直接從HDFS上獲取數據,那麼就需要一個數據共享的地方,使得各業務和產品能方便的獲取數據;和數據採集層到HDFS剛好相反,這里需要一個從HDFS將數據同步至其他目標數據源的工具,同樣,DataX也可以滿足。
另外,一些實時計算的結果數據可能由實時計算模塊直接寫入數據共享。
數據應用
業務產品
業務產品所使用的數據,已經存在於數據共享層,他們直接從數據共享層訪問即可;
報表
同業務產品,報表所使用的數據,一般也是已經統計匯總好的,存放於數據共享層;
即席查詢
即席查詢的用戶有很多,有可能是數據開發人員、網站和產品運營人員、數據分析人員、甚至是部門老大,他們都有即席查詢數據的需求;
這種即席查詢通常是現有的報表和數據共享層的數據並不能滿足他們的需求,需要從數據存儲層直接查詢。
即席查詢一般是通過SQL完成,最大的難度在於響應速度上,使用Hive有點慢,目前我的解決方案是SparkSQL,它的響應速度較Hive快很多,而且能很好的與Hive兼容。
當然,你也可以使用Impala,如果不在乎平台中再多一個框架的話。
OLAP
目前,很多的OLAP工具不能很好的支持從HDFS上直接獲取數據,都是通過將需要的數據同步到關系型資料庫中做OLAP,但如果數據量巨大的話,關系型資料庫顯然不行;
這時候,需要做相應的開發,從HDFS或者HBase中獲取數據,完成OLAP的功能;
比如:根據用戶在界面上選擇的不定的維度和指標,通過開發介面,從HBase中獲取數據來展示。
其它數據介面
這種介面有通用的,有定製的。比如:一個從Redis中獲取用戶屬性的介面是通用的,所有的業務都可以調用這個介面來獲取用戶屬性。
實時計算現在業務對數據倉庫實時性的需求越來越多,比如:實時的了解網站的整體流量;實時的獲取一個廣告的曝光和點擊;在海量數據下,依靠傳統資料庫和傳統實現方法基本完成不了,需要的是一種分布式的、高吞吐量的、延時低的、高可靠的實時計算框架;Storm在這塊是比較成熟了,但我選擇Spark Streaming,原因很簡單,不想多引入一個框架到平台中,另外,Spark Streaming比Storm延時性高那麼一點點,那對於我們的需要可以忽略。
我們目前使用Spark Streaming實現了實時的網站流量統計、實時的廣告效果統計兩塊功能。
做法也很簡單,由Flume在前端日誌伺服器上收集網站日誌和廣告日誌,實時的發送給Spark Streaming,由Spark Streaming完成統計,將數據存儲至Redis,業務通過訪問Redis實時獲取。
任務調度與監控在數據倉庫/數據平台中,有各種各樣非常多的程序和任務,比如:數據採集任務、數據同步任務、數據分析任務等;
這些任務除了定時調度,還存在非常復雜的任務依賴關系,比如:數據分析任務必須等相應的數據採集任務完成後才能開始;數據同步任務需要等數據分析任務完成後才能開始;這就需要一個非常完善的任務調度與監控系統,它作為數據倉庫/數據平台的中樞,負責調度和監控所有任務的分配與運行。
前面有寫過文章,《大數據平台中的任務調度與監控》,這里不再累贅。
總結在我看來架構並不是技術越多越新越好,而是在可以滿足需求的情況下,越簡單越穩定越好。目前在我們的數據平台中,開發更多的是關注業務,而不是技術,他們把業務和需求搞清楚了,基本上只需要做簡單的SQL開發,然後配置到調度系統就可以了,如果任務異常,會收到告警。這樣,可以使更多的資源專注於業務之上。
『叄』 國內哪個數據治理管理平台性能最好最快希望大家推薦一下,感謝!
國內哪個數據治理管理平台性能最好最快?希望大家推薦一下,感謝
如今,不少企業都想擁有屬於自己企業或產品的手機APP,但其中最困擾企業主的問題就是:開發一款手機APP到底需要多少錢?
簡單點來說,要視手機APP的需求及質量而言,價位一般在幾千到十幾萬左右,更高端的價格更高。
定製款:定製款是指APP的功能全部重新開發,過程比較繁瑣,需要美工、策劃、APP開發(前台/客戶端/手機端)、後台程序員等工種協同完成,大型的、功能復雜的APP甚至需要數十人的團隊。
由於APP的功能和設計都是定製的,因此價格會高些。定製款的開發時間與開發價格是成正比的,開發時間長,大約在兩三個月甚至不定的周期里才能完成,而費用大概在幾萬甚至十幾萬左右。
因此,想要知道開發一款手機APP需要花費多少錢,企業主首先必須把APP的詳細需求和功能告知APP開發公司,開發公司才能報出一個合理的價格。
二、手機APP平台不同,製作成本也不一樣
現在市面上流行的手機APP製作平台主要有兩種一般包括兩種系統:安卓系統(Android)和蘋果系統(IOS)。
一般來說,製作蘋果系統的手機APP軟體費用要比安卓平台的貴一些,因為蘋果公司對蘋果平台的封閉性和手機APP開發語言Objective-C的難度,都讓APP開發者加大了蘋果系統手機APP開發的難度。
三、APP製作成本包含參與人員的工資
通常情況下,開發一款APP需要產品經理、客戶端工程師、後端工程師和UI設計師各一名,這已經是製作手機APP應用軟體比較精簡的配置了,所以這些參與人員的工資也是包含在APP製作成本當中的。這些工作人員的月薪加起來可能都會超過4、5萬元。
四、APP開發公司的所在地
需要注意的是,同樣實力的APP開發公司,在不同的城市也會導致APP的成本費用高一些,如在北京、深圳和上海等地的開發公司開發成本費用就會比較高,因為當地開發人員的薪資和其他支出相對更高。
『肆』 一文讓你分清數據管理與數據治理
一文讓你分清數據管理與數據治理
當我們談數據資產管理時,我們究竟在談什麼?就目前而言,我們談論得最多的非數據管理和數據治理這兩個概念莫屬。但是對於這兩個概念,兩者的准確定義是什麼,具體區別又是什麼,仍是困擾著許多人的關鍵問題。
數據管理和數據治理有很多地方是互相重疊的,它們都圍繞數據這個領域展開,因此這兩個術語經常被混為一談。
此外,每當人們提起數據管理和數據治理的時候,還有一對類似的術語叫信息管理和信息治理,更混淆了人們對它們的理解。關於企業信息管理這個課題,還有許多相關的子集,包括主數據管理、元數據管理、數據生命周期管理等等。
於是,出現了許多不同的理論(或理論家)描述關於在企業中數據/信息的管理以及治理如何運作:它們如何單獨運作?它們又如何一起協同工作?是「自下而上」還是「自上而下」的方法更高效?
為了幫助大家弄明白這些術語以及它們之間的關系,本文將著重定義它們的概念,並指出它們的區別,這些定義和區別源自於國際公認的以數據為中心的相關組織,同時還會在一些觀點上展開詳細的探討。
數據管理包含數據治理
在說明數據和信息的區別之前,最好從「治理是整體數據管理的一部分」這個概念開始,這個概念目前已經得到了業界的廣泛認同。數據管理包含多個不同的領域,其中一個最顯著的領域就是數據治理。CMMi協會頒布的數據管理成熟度模型(DMM)使這個概念具體化。DMM模型中包括六個有效數據管理分類,而其中一個就是數據治理。數據管理協會(DAMA)在數據管理知識體系(DMBOK)中也認為,數據治理是數據管理的一部分。在企業信息管理(EIM)這個定義上,Gartner認為EIM是「在組織和技術的邊界上結構化、描述、治理信息資產的一個綜合學科」。Gartner這個定義不僅強調了數據/信息管理和治理上的緊密關系,也重申了數據管理包含治理這個觀點。
治理與管理的區別
在明確數據治理是數據管理的一部分之後,下一個問題就是定義數據管理。治理相對容易界定,它是用來明確相關角色、工作責任和工作流程的,確保數據資產能長期有序地、可持續地得到管理。而數據管理則是一個更為廣泛的定義,它與任何時間採集和應用數據的可重復流程的方方面面都緊密相關。例如,簡單地建立和規劃一個數據倉庫,這是數據管理層面的工作。定義誰以及如何訪問這個數據倉庫,並且實施各種各樣針對元數據和資源庫管理工作的標准,這是治理層面的工作。數據管理更廣泛的定義包含DATAVERSITY上大部分主題為數據管理的文章和博客,其中有一部分是特別針對數據治理的。一個更廣泛的定義是,在數據管理過程中要保證一個組織已經將數據轉換成有用信息,這項工作所需要的流程和工具就是數據治理的工作。
信息與數據的區別
在上文關於數據管理的第三個定義中,提到了數據和信息的區別。所有的信息都是數據,但並不是所有的數據都是信息。信息是那些容易應用於業務流程並產生特定價值的數據。要成為信息,數據通常必須經歷一個嚴格的治理流程,它使有用的數據從無用數據中分離出來,以及採取若干關鍵措施增加有用數據的可信度,並將有用數據作為信息使用。數據的特殊點在於創造和使用信息。在Gartner的術語表中,沒有單獨解釋數據管理和數據治理的概念,取與代之的是重點介紹了信息治理和信息管理的概念。
數據治理主要圍繞對象:角色
與正式的數據治理流程相關的角色是有限的。這些角色通常包括高層的管理者,他們優化數據治理規劃並使資金籌集變得更為容易。這些角度也包括一個治理委員會,由個別高層管理者以及針對治理特定業務和必要流程而賦予相應職責的跨業務部門的人組成。角色也包括數據管理員,確保治理活動的持續開展以及幫忙企業實現業務目標。此外,還有部分「平民」管理員,他們雖然不會明確被指定為數據管理員,但他們仍然在各自業務領域里的治理流程中扮演活躍的角色。
有效的治理不僅需要IT的介入,這是人們的普遍共識。尤其當業務必須更主動地參與到治理方式和數據管理其他層面(例如自助數據分析)的時候,目的是要從這些工作參與中獲益。在更多的案例中,特定領域的治理可以直接應用於業務。這就是為什麼治理僅需要IT的介入是一個過時且應該擯棄的觀點。
數據治理主要圍繞對象:領域
數據治理包含許多不同方面的領域:
●元數據:元數據要求數據元素和術語的一致性定義,它們通常聚集於業務詞彙表上。
●業務詞彙表:對於企業而言,建立統一的業務術語非常關鍵,如果這些術語和上下文不能橫跨整個企業的范疇,那麼它將會在不同的業務部門中出現不同的表述。
●生命周期管理:數據保存的時間跨度、數據保存的位置,以及數據如何使用都會隨著時間而產生變化,某些生命周期管理還會受到法律法規的影響。
●數據質量:數據質量的具體措施包括數據詳細檢查的流程,目的是讓業務部門信任這些數據。數據質量是非常重要的,有人認為它不同於治理,它極大提升了治理的水平。
●參考數據管理:參考數據提供數據的上下文,尤其是它結合元數據一起考慮的情況下。由於參考數據變更的頻率較低,參考數據的治理經常會被忽視。
雖然上述提及的是數據治理在數據管理中所負責的特定領域,但一個至關重要的問題在於,所有組織里的數據必須持續堅持數據治理的原則。
數據建模
數據建模是依賴於數據治理的另一個數據管理中的關鍵領域,它結合了數據管理與數據治理兩者進行協調工作。可以說,為了將數據治理擴展到整個組織,利用一個規范化的數據建模有利於將數據治理工作擴展到其他業務部門。遵從一致性的數據建模,令數據標准變得有價值(特別是應用於大數據)。一個確保數據治理貫穿整個企業的最高效手段,就是利用數據建模技術直接關聯不同的數據治理領域,例如數據血緣關系以及數據質量。當需要合並非結構化數據時,數據建模將會更有價值。此外,數據建模加強了治理的結構和形式。
關鍵的不同點
數據管理其他方面的案例在DMM中有五個類型,包括數據管理戰略、數據質量、數據操作(生命周期管理)、平台與架構(例如集成和架構標准),以及支持流程(聚集於其他因素之中的流程和風險管理)。在此重申一點,數據治理和數據管理非常接近是有事實支撐的,數據質量經常被視為與數據治理相結合,甚至被認為是數據治理的產物之一。也許,情景化這兩個領域的最好辦法,在於理解數據治理是負責正式化任何數據管理當中的流程,數據治理本身著重提供一整套工具和方法,確保企業在實際上治理這些數據。雖然數據治理是數據管理中的一部分,但後者必須要由前者來提供可靠的信息到核心業務流程。
『伍』 目前主流的數據治理平台有那些。
目前國內外能稱得上數據治理平台的不多,基本上都是主數據管理平台,只不過都改個名字為數據治理平台,真正數據治理的概念可以參考dama的《數據管理知識體系指南》內容。在這個行業,國內廠商主要有四個來源,物資編碼管理廠商(2010年前入行,最早也最普及)、PDM廠商(基本是大BOM的概念,較晚)、ERP廠商(最晚,但是也屬於編碼管理的延續)和其他後續(2015年後)入行的。國外廠商主要來源有三個,客戶主數據廠商(sap、orcale、IBM、informatica)、PDM廠商(達索、Stibo)、開源主數據廠商(Talend)。
國內第一家做主數據管理平台的是一家叫中翰軟體的公司,2010年發布的自主產權MDM平台,2013年最早開啟數據治理概念,並於2014年試水發布了基於靜態數據中心管理的數據治理平台,2018年發布了數據管控平台和數據評估監測平台。
『陸』 銀行的數據倉庫,ODS,歷史庫的區別和聯系
銀行的數據倉庫,ODS,歷史庫的區別和聯系
關系資料庫:是建立在關系模型基礎上的資料庫。藉助於集合代數等概念和方法來處理資料庫中的數據。 數據倉庫:是在企業管理和決策中面向主題的、集成的、與時間相關的、不可修改的數據集合。 區別:資料庫是面向事務的設計,數據倉庫是面向主題.
『柒』 大數據治理和數據治理的區別概述
1、什麼是數據治理
數據治理(Data Governance)是組織中涉及數據使用的一整套管理行為。由企業數據治理部門發起並推行,關於如何制定和實施針對整個企業內部數據的商業應用和技術管理的一系列政策和流程。
數據的質量直接影響著數據的價值,並且直接影響著數據分析的結果以及我們以此做出的決策的質量。我們常說,用數據說話,用數據支撐決策管理,但低質量的數據、甚至存在錯誤的數據,必然會"說假話"!!! 數據治理即提高數據的質量,發揮數據資產價值。
2、數據治理的目的
降低風險
建立數據使用內部規則
實施合規要求
改善內部和外部溝通
增加數據價值
方便數據管理
降低成本
通過風險管理和優化來幫助確保公司的持續生存
3、數據治理的方法
從技術實施角度看,數據治理包含「理」「采」「存」「管」「用」這五個步驟,即業務和數據資源梳理、數據採集清洗、資料庫設計和存儲、數據管理、數據使用。
數據資源梳理:數據治理的第一個步驟是從業務的視角釐清組織的數據資源環境和數據資源清單,包含組織機構、業務事項、信息系統,以及以資料庫、網頁、文件和 API 介面形式存在的數據項資源,本步驟的輸出物為分門別類的數據資源清單。
數據採集清洗:通過可視化的 ETL 工具(例如阿里的 DataX,Pentaho Data Integration)將數據從來源端經過抽取 (extract)、轉換 (transform)、載入 (load) 至目的端的過程,目的是將散落和零亂的數據集中存儲起來。
基礎庫主題庫建設:一般情況下,可以將數據分為基礎數據、業務主題數據和分析數據。基礎數據一般指的是核心實體數據,或稱主數據,例如智慧城市中的人口、法人、地理信息、信用、電子證照等數據。主題數據一般指的是某個業務主題數據,例如市場監督管理局的食品監管、質量監督檢查、企業綜合監管等數據。而分析數據指的是基於業務主題數據綜合分析而得的分析結果數據,例如市場監督管理局的企業綜合評價、產業區域分布、高危企業分布等。那麼基礎庫和主題庫的建設就是在對業務理解的基礎上,基於易存儲、易管理、易使用的原則抽像數據存儲結構,說白了,就是基於一定的原則設計資料庫表結構,然後再根據數據資源清單設計數據採集清洗流程,將整潔干凈的數據存儲到資料庫或數據倉庫中。
元數據管理:元數據管理是對基礎庫和主題庫中的數據項屬性的管理,同時,將數據項的業務含義與數據項進行了關聯,便於業務人員也能夠理解資料庫中的數據欄位含義,並且,元數據是後面提到的自動化數據共享、數據交換和商業智能(BI)的基礎。需要注意的是,元數據管理一般是對基礎庫和主題庫中(即核心數據資產)的數據項屬性的管理,而數據資源清單是對各類數據來源的數據項的管理。
血緣追蹤:數據被業務場景使用時,發現數據錯誤,數據治理團隊需要快速定位數據來源,修復數據錯誤。那麼數據治理團隊需要知道業務團隊的數據來自於哪個核心庫,核心庫的數據又來自於哪個數據源頭。我們的實踐是在元數據和數據資源清單之間建立關聯關系,且業務團隊使用的數據項由元數據組合配置而來,這樣,就建立了數據使用場景與數據源頭之間的血緣關系。 數據資源目錄:數據資源目錄一般應用於數據共享的場景,例如政府部門之間的數據共享,數據資源目錄是基於業務場景和行業規范而創建,同時依託於元數據和基礎庫主題而實現自動化的數據申請和使用。
質量管理:數據價值的成功發掘必須依託於高質量的數據,唯有準確、完整、一致的數據才有使用價值。因此,需要從多維度來分析數據的質量,例如:偏移量、非空檢查、值域檢查、規范性檢查、重復性檢查、關聯關系檢查、離群值檢查、波動檢查等等。需要注意的是,優秀的數據質量模型的設計必須依賴於對業務的深刻理解,在技術上也推薦使用大數據相關技術來保障檢測性能和降低對業務系統的性能影響,例如 Hadoop,MapRece,HBase 等。
商業智能(BI):數據治理的目的是使用,對於一個大型的數據倉庫來說,數據使用的場景和需求是多變的,那麼可以使用 BI 類的產品快速獲取需要的數據,並分析形成報表,像派可數據就屬於專業的BI廠商。
數據共享交換:數據共享包括組織內部和組織之間的數據共享,共享方式也分為庫表、文件和 API 介面三種共享方式,庫表共享比較直接粗暴,文件共享方式通過 ETL 工具做一個反向的數據交換也就可以實現。我們比較推薦的是 API 介面共享方式,在這種方式下,能夠讓中心數據倉庫保留數據所有權,把數據使用權通過 API 介面的形式進行了轉移。API 介面共享可以使用 API 網關實現,常見的功能是自動化的介面生成、申請審核、限流、限並發、多用戶隔離、調用統計、調用審計、黑白名單、調用監控、質量監控等等。
4、數據治理流程
基本流程:發現數據質量問題 > 定義數據質量規則 > 質量控制 > 質量評估 > 質量優化
『捌』 數據治理方面哪個公司做的好
數據治理方面,哪個公司做的好?我認為一般情況下,我感覺數據治理方面,我認為還是這個南京數據技術學院,這個數據里方數據治理方面,哪個公司做的好?我認為一般情況下,我感覺數據治理方面,我認為還是這個南京數據技術學院,這個數據治理方面是比較好的