⑴ 求歷代英偉達顯卡架構名稱
1、Fermi費米架構
費米是諾貝爾物理學獎得主,被稱為原子能之父,他的實驗小組建立了人類第一台可控核反應堆,也是費米悖論的提出者,英偉達在2010年發布的Fermi架構就以他的名字來命名。
該家族包括GTX5系列、GTX4系列,如當年的雙核心GTX590、580、GTX470等,從這一代開始,N卡在消費市場所佔比重逐漸和A卡拉開了距離,也從這一代開始,戰略核導彈名揚海內外。
2、Kepler開普勒架構
這是Fermi架構的下一代,以著名天文學家開普勒命名,他最大的成就是發現了行星運動三大定律,為或者宇宙探索奠定了理論基礎。
該架構的出現意味著英偉達開始全面佔領游戲獨顯市場,代表作GTX6系列,其中很多款到現在仍在使用,堪稱骨灰級獨顯,比如GTX660、第一代泰坦、GTX780Ti等
3、Maxwell麥克斯韋架構
麥克斯韋是電磁學的開山鼻祖,經典電動力學創始人,也是統計物理學的奠基者。作為開普勒架構顯卡的繼任者,該系列顯卡口碑良好,沒有出現太過火的惡性事件,代表作GTX9系列和GTX750,它們中的好幾款仍然活躍在顯卡天梯排行榜上。
4、Pascal帕斯卡架構
帕斯卡出生於1623年,這是一位天才,在16歲的時候就發現了著名的帕斯卡六邊形定理,後來提出了帕斯卡定律,發明水壓機,學過物理學的小夥伴都知道力學單位里有個帕,這就是用其姓氏來命名的。運用該架構的顯卡是目前市場主流產品,代表作GTX10系,從GTX1050開始一直到1080TI。
5、Turing圖靈架構
圖靈,人工智慧之父,計算機之父,電影《模仿游戲》原型,也是坊間所傳蘋果logo的歷史來源,當年圖靈咬了一口毒蘋果而自殺,他的逝世令人惋惜,但功績卻能永垂史冊。該顯卡架構代表作正是目前最火熱的RTX20系顯卡,以及剛剛發布的GTX16系,具體性能如何大家有目共睹。
(1)volta架構包括哪些產品擴展閱讀:
NVIDIA(英偉達)計劃授權智能手機和平板電腦開發廠商使用自己的圖形晶元技術。高通在手機晶元領域占據著絕對的優勢,英偉達這樣做的目的就在於想佔領更大的市場份額,並能開啟與三星、蘋果之間的合作。
移動晶元局勢是這樣的,高通占據絕對領導地位,蘋果和三星絕大部分晶元自給自足。而老牌的晶元廠商如英特爾、英偉達和AMD,還是主打桌面和伺服器平台,在移動平台上下手太晚,失去了先機。
英偉達的移動處理器Tegra性能非常強勁,據說能達到A6的數倍,但是現在只有極少數的設備採用了英偉達的核心,如Ouya、Shield。所以說,英偉達的技術的廣泛應用,會給移動游戲產業帶來不小的正面影響。
⑵ 新出的titanv是屬於10系的還是20系的
准衫陸確來說不屬於10系也不屬於20系
十系顯卡均為pascal架構,20系顯卡根搏畝據消息是跳或銀頃過volta架構直接進入代號「安培」的10nm工藝架構。
TITAN V是volta架構的產物,故而不屬於10系也不屬於20系,自成一派。
⑶ 英偉達發布史上最強計算平台,黃教主:自動駕駛不再擔心算力問題
原本應該在今年 3 月份於加州聖何塞舉辦的英偉達 GTC 2020 大會,因為全球性新冠病毒肺炎的爆發而不得不推遲舉行。
比原計劃晚了將近 2 個月,英偉達 GTC 2020 終於在 5 月 14 日回歸。
不過這一次開發者們沒辦法在線下集會,只能通過線上直播觀看「皮衣教主」黃仁勛的主題演講。老黃此次是在他矽谷的家中完成了這場別開生面的「Kitchen Keynote」。
雖然是廚房舉行,英偉達依然爆出「核彈」,發布了全新一代的 GPU 架構 Ampere(安培)。
在自動駕駛方向上,英偉達通過兩塊 Orin SoC 和兩塊基於安培架構的 GPU 組合,實現了前所未有的?2000 TOPS?算力的 Robotaxi 計算平台,整體功耗為?800W。
有業界觀點認為,實現 L2 自動駕駛需要的計算力皮卜小於 10 TOPS,L3 需要的計算力為 30 - 60 TOPS,L4 需要的計算力大於 100 TOPS,L5 需要的計算力至少為 1000 TOPS。
現在的英偉達自動駕駛計算平台已經建立起了從?10TOPS/5W,200TOPS/45W?到?2000 TOPS/800W?的完整產品線,分別對應前視模塊、L2+ADAS?以及?Robotaxi?的各級應用。
從產品線看,英偉達?Drive AGX?將全面對標 Mobileye?EyeQ?系列,希望成為量產供應鏈中的關鍵廠商。
1、全新 GPU 架構:Ampere(安培)
2 個月的等待是值得的,本次 GTC 上,黃仁勛重磅發布了英偉達全新一代 GPU 架構 Ampere(安培)以及基於這一架構的首款 GPU NVIDIA A100。
A100 在整體性能上相比於前代基於 Volta 架構的產品有 20 倍的提升,這顆 GPU 將主要用於數據分析、專業計算以及圖形處理。
在安培架構之前,英偉達已經研發了多代 GPU 架構,它們都是以科學發展史上的偉人燃差穗來命名的。
比如 Tesla(特斯拉)、Fermi(費米)、Kepler(開普勒)、Maxwell(麥克斯維爾)、Pascal(帕斯卡)、Volta(伏特)以及 Turing(圖靈)。
這些核心架構的升級正是推動英偉達各類 GPU 產品整體性能提升的關鍵。
針對基於安培架構的首款 GPU A100,黃仁勛細數了它的五大核心特點:
集成了超過 540 億個晶體管,是全球規模最大的 7nm 處理器;引入第三代張量運算指令 Tensor Core 核心,這一代 Tensor Core 更加靈活、速度更快,同時更易於使用;採用了結構化稀疏加速技術,性能得以大幅提升;支持單一 A100 GPU 被分割為多達 7 塊獨立的 GPU,而且每一塊 GPU 都有自己的資源,為不同規模的工作提供不同的計算力;集成了第三代 NVLink 技術,使 GPU 之間高速連接速度翻倍,多顆 A100 可組成一個巨型 GPU,性能可擴展。
這些優勢累加起來,最終讓 A100 相較於前代基於 Volta 架慶碰構的 GPU 在訓練性能上提升了?6 倍,在推理性能上提升了?7 倍。
最重要的是,A100 現在就可以向用戶供貨,採用的是台積電的 7nm 工藝製程生產。
阿里雲、網路雲、騰訊雲這些國內企業正在計劃提供基於 A100 GPU 的服務。
2、Orin+安培架構 GPU:實現 2000TOPS 算力
隨著英偉達全新 GPU 架構安培的推出,英偉達的自動駕駛平台(NVIDIA Drive)也迎來了一次性能的飛躍。
大家知道,英偉達此前已經推出了多代 Drive AGX 自動駕駛平台以及 SoC,包括?Drive AGX Xavier、Drive AGX Pegasus?以及?Drive AGX Orin。
其中,Drive AGX Xavier 平台包含了兩顆 Xavier SoC,算力可以達到 30TOPS,功耗為 30W。
最近上市的小鵬 P7 上就量產搭載了這一計算平台,用於實現一系列 L2 級自動輔助駕駛功能。
Drive AGX Pegasus 平台則包括了兩顆 Xavier SoC 和兩顆基於圖靈架構的 GPU,算力能做到 320TOPS,功耗為 500W。
目前有文遠知行這樣的自動駕駛公司在使用這一計算平台。
在 2019 年 12 月的 GTC 中國大會上,英偉達又發布了最新一代的自動駕駛計算 SoC Orin。
這顆晶元由 170 億個晶體管組成,集成了英偉達新一代 GPU 架構和 Arm Hercules CPU 內核以及全新深度學習和計算機視覺加速器,最高每秒可運行 200 萬億次計算。
相較於上一代 Xavier 的性能,提升了 7 倍。
如今,英偉達進一步將自動駕駛計算平台的算力往前推進,通過將兩顆 Orin SoC 和兩塊基於安培架構的 GPU 集成起來,達到驚人的 2000TOPS 算力。
相較於 Drive AGX Pegasus 的性能又提升了 6 倍多,相應地,其功耗為 800W。
按一顆 Orin SoC 200TOPS 算力來計算,一塊基於安培架構的 GPU 的算力達到了 800TOPS。
正因為高算力,這個平台能夠處理全自動駕駛計程車運行所需的更高解析度感測器輸入和更先進的自動駕駛深度神經網路。
對於高階自動駕駛技術的發展而言,英偉達正在依靠 Orin SoC 和安培 GPU 架構在計算平台方面引領整個行業。
當然,作為一個軟體定義的平台,英偉達 Drive AGX 具備很好的可擴展性。
特別是隨著安培 GPU 架構的推出,該平台已經可以實現從入門級 ADAS 解決方案到 L5 級自動駕駛計程車系統的全方位覆蓋。
比如英偉達的 Orin 處理器系列中,有一款低成本的產品可以提供 10TOPS 的算力,功耗僅為 5W,可用作車輛前視 ADAS 的計算平台。
換句話說,採用英偉達 Drive AGX 平台的開發者在單一平台上僅基於一種架構便能開發出適應不同細分市場的自動駕駛系統,省去了單獨開發多個子系統(ADAS、L2+ 等系統)的高昂成本。
不過,想採用 Orin 處理器的廠商還得等一段時間,因為這款晶元會從 2021 年開始提供樣品,到?2022 年下半年才會投入生產並開始供貨。
3、英偉達自動駕駛「朋友圈」再擴大
本屆 GTC 上,英偉達的自動駕駛「朋友圈」繼續擴大。
中國自動駕駛公司小馬智行(Pony.ai)、美國電動車創業公司?Canoo?和法拉第未來(Faraday Future)加入到英偉達的自動駕駛生態圈,將採用英偉達的 Drive AGX 計算平台以及相應的配套軟體。
小馬智行將會基於 Drive AGX Pegasus 計算平台打造全新一代 Robotaxi 車型。
此前,小馬智行已經拿到了豐田的 4 億美金投資,不知道其全新一代 Robotaxi 會不會基於豐田旗下車型打造。
美國的電動汽車初創公司 Canoo 推出了一款專門用於共享出行服務的電動迷你巴士,計劃在 2021 年下半年投入生產。
為了實現輔助駕駛的系列功能,這款車型會搭載英偉達 Drive AGX Xavier 計算平台。前不久,Canoo 還和現代汽車達成合作,要攜手開發電動汽車平台。
作為全球新造車圈內比較特殊存在的法拉第未來,這一次也加入到了英偉達的自動駕駛生態圈。
FF 首款量產車 FF91 上的自動駕駛系統將基於 Drive AGX Xavier 計算平台打造,全車搭載了多達 36 顆各類感測器。
法拉第未來官方稱 FF91 有望在今年年底開始交付,不知道屆時會不會再一次跳票。
作為 GPU 領域絕對霸主的英偉達,在高算力的數據中心 GPU 以及高性能、可擴展的自動駕駛計算平台的加持下,已經建起了一個完整的集數據收集、模型訓練、模擬測試、遠程式控制制和實車應用的軟體定義的自動駕駛平台,實現了端到端的完整閉環。
同時,其自動駕駛生態圈也在不斷擴大,包括汽車製造商、一級供應商、感測器供應商、Robotaxi 研發公司和軟體初創公司在內的數百家自動駕駛產業鏈上的企業已經在基於英偉達的計算硬體和配套軟體開發、測試和應用自動駕駛車輛。
未來,在整個自動駕駛產業里,以計算晶元為核心優勢,英偉達的觸角將更加深入,有機會成為產業鏈條上不可或缺的供應商。
本文來源於汽車之家車家號作者,不代表汽車之家的觀點立場。
⑷ teala v 100用什麼cpu
NVIDIA Tesla V100計算卡採用的是Volta(伏特)架構的GV100核心,這個其實是GPU核心或者說是計算核心,並不是「CPU」。
NVIDIA對該數據中心GPU的介紹:
NVIDIA Tesla V100 Tensor Core 是極其先進的數據中心 GPU,能加快 AI、高性能計算 (HPC) 和圖形技術的發展。其採用 NVIDIA Volta 架構,並帶有 16 GB 和 32GB 兩種配置,在單個 GPU 中即可提供汪檔高達 100 個 CPU 的性能。如今,數據科學家、研究人員和工程師可以減少優化內存使用率的時間,從而將更多時間用於設計下一項 AI 突破性作品。
主要描述:
Tesla V100是基於Volta架構的產品,內建5120個CUDA單元,核心頻率為1455MHz,搭載16GB HBM2顯存,單精度浮點性能15 TFLOPS,雙精度浮點7.5 TFLOPS,顯存帶寬900GB/s。
此外,閉槐Tesla V100還增加與深度學習高轎陵友度相關的Tensor單元,Tensor性能號稱可以達到120 TFLOPS,Tesla V100擁有超過210億個晶體管,核心面積達到了創紀錄的815平方毫米,採用台積電的12nmFFN工藝製造。
主要參數:
⑸ 硬科技:一窺NVIDIA「真正人工智慧」Volta的執行單元細節
畢竟是享有IEEE這響亮品牌「加持」的研討會,加上坐在台下的聽眾多半又不是呆頭呆腦的「諸多媒體先進」,諸多在HotChips趁機宣揚國威並現場隔空較勁的晶片廠商,多半都會講些和技術行銷簡報「很不一樣」的深度內容。
NVIDIA這次公布了「人工智慧最佳化」GPU微架構Volta(GV100)的執行單元細節,頗有看頭磨御好,平日很難得看到繪圖晶片廠商願意打開「黑盒子」給大家品頭論足,尤其是扮演著GPU關鍵靈魂,也就是NVIDIA從Fermi一路改名SMSMXSMM再改回SM的「多執行緒SIMD(或SIMT)處理器」,過去大家都在亂猜一通,現在總算有機會一窺其廬山真面目。
如果今天要筆者馬上評論「為何NVIDIA可以在高階繪圖市場壓倒AMD」,唯一可勉強擠出的大概也只有一句話:NVIDIA集中足夠的資源,採取分散風險的多樣化產品研發計畫,而不像同時經營CPUGPU兩條戰線、蠟燭兩頭燒的AMD,被迫雞蛋都放在同一個籃子內。
在2013年的NVIDIA時程表瞎鉛,原本Maxwell要直接演進到Volta。
但2014年,在Volta前就多出一個Pascal了。
所以2016年「泛用」的Pascal,2017年「專用」的Volta,打破了NVIDIA兩年推出一個嶄新微架構的節奏,搞不好NVIDIA以後的「鍾擺」就以一年為期,也說不定。
以事後諸葛的角度回顧NVIDIA「小步快跑」的決定,一點都不讓人感到意外,因為Volta的確是NVIDIA史上第一個真正針對人工智慧量身訂做、兼顧「學拆野習/訓練」與「推論/預測」的微架構。
Volta的單一SM規劃和「前前代」Maxwell雷同,切成四塊「次核心(Sub-Core)」。其實圖中少畫了載入儲存單元,但好像也無關緊要了。
四塊次核心共用L1指令快取、L1資料快取(與材質和區域共享記憶體共用128kB容量,NVIDIA宣稱這樣比較有彈性)、與晶片共用的記憶體子系統(6MB第二階快取和12GBHBM2主記憶體)。
每個次核心單一時脈執行一個由32執行緒組成的「Warp」,想的簡單一點,一個Warp就代表畫面上的一個小方格。
次核心內的執行單元就是重頭戲了,Volta包含五種截然不同的獨立運算功能,這讓它能夠在眾多GPU中鶴立雞群。
32位元浮點(FP32):16組,「CUDACore」的同義詞,如執行16位元半精度,輸出率將會倍增。特殊運算(MUFU):4組,特殊功能單元,負責平方根、倒數、sine和cosine等三角函數。64位元浮點(FP64):8組,高效能運算必備品,消費市場就 *** 或著根本看不到。整數運算(INT):16組,人工智慧一定用得到,看看Google第一代TPU就知道了。張量運算核心(TensorCore):2組,執行4x416位元浮點乘積和,適用於特徵辨識的卷積運算(ConvolutionalNeuralNeork,CNN)。值得注意的是,為了確保執行單元隨時有指令可跑,次核心具備「L0」指令快取。
一顆GV100有640個TensorCore:每個次核心2個x4個次核心x80個SM=640個。
可理可證,GV100有5120個CUDAcore,Fermi完全體GF110的整整「十倍」,時間過得真快。
最後,也是最重要的,Volta可實現更精細的執行緒執行資源管理,每個Warp的32執行緒,都有其個別獨立的程式計數器(ProgramCounter),更利於多工與虛擬化應用。
Volta(GV100)這些補強,特別像獨立的64位元浮點單元、獨立的整數運算單元、與為了強化推論(Inference)而生的16位元浮點乘積和張量(Tensor)運算單元「TensorCore」,都是對一般游戲娛樂或高效能運算而言,敬謝不敏的化外之民,即使Pascal後期型號(GP102/GP104/GP106)也追加了對8位元短整數的支援性,但仍看不到Volta的車尾燈,而那時的AMD,大概只能仆在馬路上,背後深深烙印著兩條被NVIDIA活活輾過的輪胎痕。
同樣的「分工」精神,也早已成為NVIDIA自「讓GPU更接近泛用CPU」的Fermi微架構為起點,產品規劃的重要特色:具備高效能64位元浮點運算的高階應用,都會有專屬的大型化晶粒,像GF100、GF110、GK110、GK210、GP100、GV100等(Maxwell世代沒這樣搞,算是特例),以免消費市場壓根兒不需要的「外掛」,傷害產品競爭力,如不必要的多餘製造成本與耗電量等。
很不幸的,就剛好就是AMD的弱點,想要單一設計面面俱到,下場就是兩邊都顧不到,Vega就是很好的血淋淋例證。疑?怎麼又讓筆者想起Fusion了?