日韩一区二区三区精品,欧美疯狂xxxxbbbb牲交,热99re久久免费视精品频,人妻互换 综合,欧美激情肉欲高潮视频

芯片三劍客 云端終端雙場景各顯神通

發(fā)布者:三青最新更新時間:2017-10-19 來源: 電子產(chǎn)品世界關(guān)鍵字:芯片  人工智能 手機看文章 掃描二維碼
隨時隨地手機看文章

  AI(人工智能)沉浮數(shù)十載,在“預期-失望-進步-預期”周期中破浪前行。下面就隨網(wǎng)絡(luò)通信小編一起來了解一下相關(guān)內(nèi)容吧。

  根據(jù)賽迪咨詢發(fā)布報告,2016年全球人工智能市場規(guī)模達到293億美元。我們預計2020年全球人工智能市場規(guī)模將達到1200億美元,復合增長率約為20%。人工智能芯片是人工智能市場中重要一環(huán),根據(jù)英偉達,AMD,賽靈思,谷歌等相關(guān)公司數(shù)據(jù),我們測算2016年人工智能芯片市場規(guī)達到23.88億美元,約占全球人工智能市場規(guī)模8.15%,而到2020年人工智能芯片市場規(guī)模將達到146.16億美元,約占全球人工智能市場規(guī)模12.18%。人工智能芯片市場空間極其廣闊。

  芯片承載算法,是競爭的制高點

  人工智能的基礎(chǔ)是算法,深度學習是目前最主流的人工智能算法。深度學習又叫深度神經(jīng)網(wǎng)絡(luò)(DNN:Deep Neural Networks),從之前的人工神經(jīng)網(wǎng)絡(luò)(ANN:Artificial Neural Networks)模型發(fā)展而來。這種模型一般采用計算機科學中的圖模型來直觀表達,深度學習的“深度”便指的是圖模型的層數(shù)以及每一層的節(jié)點數(shù)量。神經(jīng)網(wǎng)絡(luò)復雜度不斷提升,從最早單一的神經(jīng)元,到2012年提出的AlexNet(8個網(wǎng)絡(luò)層),再到2015年提出的ResNET(150個網(wǎng)絡(luò)層),層次間的復雜度呈幾何倍數(shù)遞增,對應的是對處理器運算能力需求的爆炸式增長。深度學習帶來計算量急劇增加,對計算硬件帶來更高要求。

  深度學習算法分“訓練”和“推斷”兩個過程。簡單來講,人工智能需要通過以大數(shù)據(jù)為基礎(chǔ),通過“訓練”得到各種參數(shù),把這些參數(shù)傳遞給“推斷”部分,得到最終結(jié)果。

  “訓練”和“推斷”所需要的神經(jīng)網(wǎng)絡(luò)運算類型不同。神經(jīng)網(wǎng)絡(luò)分為前向計算(包括矩陣相乘、卷積、循環(huán)層)和后向更新(主要是梯度運算)兩類,兩者都包含大量并行運算?!坝柧殹彼璧倪\算包括“前向計算+后向更新”;“推斷”則主要是“前向計算”。一般而言訓練過程相比于推斷過程計算量更大。一般來說,云端人工智能硬件負責“訓練+推斷”,終端人工智能硬件只負責“推斷”。

  “訓練”需大數(shù)據(jù)支撐并保持較高靈活性,一般在“云端”(即服務器端)進行。人工智能訓練過程中,頂層上需要有一個海量的數(shù)據(jù)集,并選定某種深度學習模型。每個模型都有一些內(nèi)部參數(shù)需要靈活調(diào)整,以便學習數(shù)據(jù)。而這種參數(shù)調(diào)整實際上可以歸結(jié)為優(yōu)化問題,在調(diào)整這些參數(shù)時,就相當于在優(yōu)化特定的約束條件,這就是所謂的“訓練”。云端服務器收集用戶大數(shù)據(jù)后,依靠其強大的計算資源和專屬硬件,實現(xiàn)訓練過程,提取出相應的訓練參數(shù)。由于深度學習訓練過程需要海量數(shù)據(jù)集及龐大計算量,因此對服務器也提出了更高的要求。未來云端AI服務器平臺需具備相當數(shù)據(jù)級別、流程化的并行性、多線程、高內(nèi)存帶寬等特性。

  “推斷”過程可在云端(服務器端)進行,也可以在終端(產(chǎn)品端)進行。等待模型訓練完成后,將訓練完成的模型(主要是各種通過訓練得到的參數(shù))用于各種應用場景(如圖像識別、語音識別、文本翻譯等)。“應用”過程主要包含大量的乘累加矩陣運算,并行計算量很大,但和“訓練”過程比參數(shù)相對固化,不需要大數(shù)據(jù)支撐,除在服務器端實現(xiàn)外,也可以在終端實現(xiàn)。“推斷”所需參數(shù)可由云端“訓練”完畢后,定期下載更新到終端。

  傳統(tǒng)CPU算力不足,新架構(gòu)芯片支撐AI成必須。核心芯片決定計算平臺的基礎(chǔ)架構(gòu)和發(fā)展生態(tài),由于AI所需的深度學習需要很高的內(nèi)在并行度、大量浮點計算能力以及矩陣運算,基于CPU的傳統(tǒng)計算架構(gòu)無法充分滿足人工智能高性能并行計算(HPC)的需求,因此需要發(fā)展適合人工智能架構(gòu)的專屬芯片。

  專屬硬件加速是新架構(gòu)芯片發(fā)展主流。目前處理器芯片面向人工智能硬件優(yōu)化升級有兩種發(fā)展路徑:(1)延續(xù)傳統(tǒng)計算架構(gòu),加速硬件計算能力:以GPU、FPGA、ASIC(TPU、NPU等)芯片為代表,采用這些專屬芯片作為輔助,配合CPU的控制,專門進行人工智能相關(guān)的各種運算;(2)徹底顛覆傳統(tǒng)計算架構(gòu),采用模擬人腦神經(jīng)元結(jié)構(gòu)來提升計算能力,以IBM TrueNorth芯片為代表,由于技術(shù)和底層硬件的限制,第二種路徑尚處于前期研發(fā)階段,目前不具備大規(guī)模商業(yè)應用的可能性。從技術(shù)成熟度和商業(yè)可行性兩個角度,我們判斷使用AI專屬硬件進行加速運算是今后五年及以上的市場主流。

  ?云端終端雙場景,三種專屬芯片各顯其能

  我們把人工智能硬件應用場景歸納為云端場景和終端場景兩大類。云端主要指服務器端,包括各種共有云、私有云、數(shù)據(jù)中心等業(yè)務范疇;終端主要指包括安防、車載、手機、音箱、機器人等各種應用在內(nèi)的移動終端。由于算法效率和底層硬件選擇密切相關(guān),“云端”(服務器端)和“終端”(產(chǎn)品端)場景對硬件的需求也不同。

  除CPU外,人工智能目前主流使用三種專用核心芯片,分別是GPU,F(xiàn)PGA,ASIC。

  GPU:先發(fā)制人的“十項全能”選手,云端終端均拔頭籌。GPU(Graphics Processing Unit)又稱圖形處理器,之前是專門用作圖像運算工作的微處理器。相比CPU,GPU由于更適合執(zhí)行復雜的數(shù)學和幾何計算(尤其是并行運算),剛好與包含大量的并行運算的人工智能深度學習算法相匹配,因此在人工智能時代剛好被賦予了新的使命,成為人工智能硬件首選,在云端和終端各種場景均率先落地。目前在云端作為AI“訓練”的主力芯片,在終端的安防、汽車等領(lǐng)域,GPU也率先落地,是目前應用范圍最廣、靈活度最高的AI硬件。

  FPGA:“變形金剛”,算法未定型前的階段性最佳選擇。FPGA(Field-Programmable Gate Array)即現(xiàn)場可編程門陣列,是一種用戶可根據(jù)自身需求進行重復編程的“萬能芯片”。編程完畢后功能相當于ASIC(專用集成電路),具備效率高、功耗低的特點,但同時由于要保證編程的靈活性,電路上會有大量冗余,因此成本上不能像ASIC做到最優(yōu),并且工作頻率不能太高(一般主頻低于500MHz)。FPGA相比GPU具有低功耗優(yōu)勢,同時相比ASIC具有開發(fā)周期快,更加靈活編程等特點。FPGA于“應用爆發(fā)”與“ASIC量產(chǎn)”夾縫中尋求發(fā)展,是效率和靈活性的較好折衷,“和時間賽跑”,在算法未定型之前具較大優(yōu)勢。在現(xiàn)階段云端數(shù)據(jù)中心業(yè)務中,F(xiàn)PGA以其靈活性和可深度優(yōu)化的特點,有望繼GPU之后在該市場爆發(fā);在目前的終端智能安防領(lǐng)域,目前也有廠商采用FPGA方案實現(xiàn)AI硬件加速。

  ASIC:“專精職業(yè)選手”,專一決定效率,AI芯片未來最佳選擇。ASIC(Application Specific Integrated Circuit)即專用集成電路,本文中特指專門為AI應用設(shè)計、專屬架構(gòu)的處理器芯片。近年來涌現(xiàn)的類似TPU、NPU、VPU、BPU等令人眼花繚亂的各種芯片,本質(zhì)上都屬于ASIC。無論是從性能、面積、功耗等各方面,AISC都優(yōu)于GPU和FPGA,長期來看無論在云端和終端,ASIC都代表AI芯片的未來。但在AI算法尚處于蓬勃發(fā)展、快速迭代的今天,ASIC存在開發(fā)周期較長、需要底層硬件編程、靈活性較低等劣勢,因此發(fā)展速度不及GPU和FPGA。

  本報告我們分別仔細分析云端和終端兩種應用場景下,這三種專屬AI芯片的應用現(xiàn)狀、發(fā)展前景及可能變革。

  云端場景:GPU生態(tài)領(lǐng)先,未來多芯片互補共存

  核心結(jié)論:GPU、TPU等適合并行運算的處理器未來成為支撐人工智能運算的主力器件,既存在競爭又長期共存,一定程度可相互配合;FPGA有望在數(shù)據(jù)中心業(yè)務承擔較多角色,在云端主要作為有效補充存在;CPU會“變小”,依舊作為控制中心。未來芯片的發(fā)展前景取決于生態(tài),有望統(tǒng)一在主流的幾個軟件框架下,形成云端CPU+GPU/TPU+FPGA(可選)的多芯片協(xié)同場景。

  (1)依托大數(shù)據(jù),科技巨頭不同技術(shù)路徑布局AI云平臺

  基于云平臺,各大科技巨頭大力布局人工智能。云計算分為三層,分別是Infrastructure(基礎(chǔ)設(shè)施)-as-a-Service(IaaS),Platform(平臺)-as-a-Service(Paas),Software(軟件)-as-a-Service(Saas)?;A(chǔ)設(shè)施在最下端,平臺在中間,軟件在頂端。IaaS公司提供場外服務器,存儲和網(wǎng)絡(luò)硬件。大數(shù)據(jù)為人工智能提供信息來源,云計算為人工智能提供平臺,人工智能關(guān)鍵技術(shù)是在云計算和大數(shù)據(jù)日益成熟的背景下取得了突破性進展。目前各大科技巨頭看好未來人工智能走向云端的發(fā)展態(tài)勢,紛紛在自有云平臺基礎(chǔ)上搭載人工智能系統(tǒng),以期利用沉淀在云端的大數(shù)據(jù)挖掘價值。

  (2)千億美元云服務市場,AI芯片發(fā)展?jié)摿薮?/strong>

  千億美元云服務市場,云計算硬件市場規(guī)模巨大。云計算的市場規(guī)模在逐漸擴大。據(jù)Gartner的統(tǒng)計,2015年以IaaS、PaaS和SaaS為代表的典型云服務市場規(guī)模達到522.4億美元,增速20.6%,預計2020年將達到1435.3億美元,年復合增長率達22%。其中IaaS公司到2020年市場空間達到615億美元,占整個云計算市場達43%,云計算硬件市場空間巨大,而云計算和人工智能各種加速算法關(guān)系密切,未來的云計算硬件離不開AI芯片加速。

  云端AI芯片發(fā)展?jié)摿薮?。根?jù)英偉達與AMD財務數(shù)據(jù),我們預計GPU到2020年在數(shù)據(jù)中心業(yè)務中將達到約50億美元市場規(guī)模。同時根據(jù)賽靈思與阿爾特拉等FPGA廠商,我們預計2020年FPAG數(shù)據(jù)中心業(yè)務將達到20億美元。加上即將爆發(fā)的ASIC云端市場空間,我們預計到2020年云端AI芯片市場規(guī)模將達到105.68億美元,AI芯片在云端會成為云計算的重要組成部分,發(fā)展?jié)摿薮蟆?/p>

  (3)云端芯片現(xiàn)狀總結(jié):GPU領(lǐng)先,F(xiàn)PGA隨后,ASIC萌芽

  AI芯片在云端基于大數(shù)據(jù),核心負責“訓練”。云端的特征就是“大數(shù)據(jù)+云計算”,用戶依靠大數(shù)據(jù)可進行充分的數(shù)據(jù)分析和數(shù)據(jù)挖掘、提取各類數(shù)據(jù)特征,與人工智能算法充分結(jié)合進行云計算,從而衍生出服務器端各種AI+應用。AI芯片是負責加速人工智能各種復雜算法的硬件。由于相關(guān)計算量巨大,CPU架構(gòu)被證明不能滿足需要處理大量并行計算的人工智能算法,需要更適合并行計算的芯片,所以GPU、FPGA、TPU等各種芯片應運而生。AI芯片在云端可同時承擔人工智能的“訓練”和“推斷”過程。

  云端芯片現(xiàn)狀:GPU占據(jù)云端人工智能主導市場,以TPU為代表的ASIC目前只運用在巨頭的閉環(huán)生態(tài),F(xiàn)PGA在數(shù)據(jù)中心業(yè)務中發(fā)展較快。

  GPU應用開發(fā)周期短,成本相對低,技術(shù)體系成熟,目前全球各大公司云計算中心如谷歌、微軟、亞馬遜、阿里巴巴等主流公司均采用GPU進行AI計算。

  谷歌除大量使用GPU外,努力發(fā)展自己的AI專屬的ASIC芯片。今年5月推出的TPU與GPU相比耗電量降低60%,芯片面積下降40%,能更好的滿足其龐大的AI算力要求,但由于目前人工智能算法迭代較快,目前TPU只供谷歌自身使用,后續(xù)隨著TensorFlow的成熟,TPU也有外供可能,但通用性還有很長路要走。

  百度等廠商目前在數(shù)據(jù)中心業(yè)務中也積極采用FPGA進行云端加速。FPGA可以看做從GPU到ASIC重點過渡方案。相對于GPU可深入到硬件級優(yōu)化,相比ASIC在目前算法不斷迭代演進情況下更具靈活性,且開發(fā)時間更短。AI領(lǐng)域?qū)S眉軜?gòu)芯片(ASIC)已經(jīng)被證明可能具有更好的性能和功耗,有望成為未來人工智能硬件的主流方向。

  (4)云端GPU:云端AI芯片主流,先發(fā)優(yōu)勢明顯

  發(fā)展現(xiàn)狀:GPU天然適合并行計算,是目前云端AI應用最廣的芯片

  GPU目前云端應用范圍最廣。目前大量涉足人工智能的企業(yè)都采用GPU進行加速。根據(jù)英偉達官方資料,與英偉達合作開發(fā)深度學習項目的公司2016年超過19000家,對比2014年數(shù)量1500 家。目前百度、Google、Facebook 和微軟等IT巨頭都采用英偉達的GPU對其人工智能項目進行加速,GPU目前在云端AI深度學習場景應用最為廣泛, 由于其良好的編程環(huán)境帶來的先發(fā)優(yōu)勢,預計未來仍將持續(xù)強勢。

  GPU芯片架構(gòu)脫胎圖像處理,并行計算能力強大。GPU(Graphics Processing Unit),又稱視覺處理器,是之前應用在個人電腦、工作站、游戲機、移動設(shè)備(如平板電腦、智能手機等)等芯片內(nèi)部,專門用作圖像運算工作的微處理器。與CPU類似可以編程,但相比CPU更適合執(zhí)行復雜的數(shù)學和幾何計算,尤其是并行運算。內(nèi)部具有高并行結(jié)構(gòu)(highly paralle lstructure),在處理圖形數(shù)據(jù)和復雜算法方面擁有比CPU更高的效率。

  GPU較CPU結(jié)構(gòu)差異明顯,更適合并行計算。對比GPU和CPU在結(jié)構(gòu)上的差異,CPU大部分面積為控制器和寄存器,GPU擁有更多的ALU(Arithmetic Logic Unit,邏輯運算單元)用于數(shù)據(jù)處理,而非數(shù)據(jù)高速緩存和流控制,這樣的結(jié)構(gòu)適合對密集型數(shù)據(jù)進行并行處理。CPU執(zhí)行計算任務時,一個時刻只處理一個數(shù)據(jù),不存在真正意義上的并行,而GPU具有多個處理器核,同一時刻可并行處理多個數(shù)據(jù)。

  與CPU相比,GPU在AI領(lǐng)域的性能具備絕對優(yōu)勢。深度學習在神經(jīng)網(wǎng)絡(luò)訓練中,需要很高的內(nèi)在并行度、大量的浮點計算能力以及矩陣運算,而GPU可以提供這些能力,并且在相同的精度下,相對傳統(tǒng)CPU的方式,擁有更快的處理速度、更少的服務器投入和更低的功耗。在2017年5月11日的加州圣何塞GPU技術(shù)大會上,NVIDIA就已經(jīng)發(fā)布了Tesla V100。這個目前性能最強的GPU運算架構(gòu)Volta采用臺積電12nm FFN制程并整合210億顆電晶體,在處理深度學習的性能上等同于250顆CPU。

? ? 以上是關(guān)于網(wǎng)絡(luò)通信中-芯片三劍客 云端終端雙場景各顯神通的相關(guān)介紹,如果想要了解更多相關(guān)信息,請多多關(guān)注eeworld,eeworld電子工程將給大家提供更全、更詳細、更新的資訊信息。

關(guān)鍵字:芯片  人工智能 引用地址:芯片三劍客 云端終端雙場景各顯神通

上一篇:AI技術(shù)已到應用時間點 傳統(tǒng)企業(yè)要盡快行動起來
下一篇:iPhone 8問題連連市場遇冷 三星華為迎來高端機遇

推薦閱讀最新更新時間:2024-05-07 17:40

工信部:將推進工業(yè)半導體材料、芯片、器件和IGBT模塊產(chǎn)業(yè)
10月8日,工信部發(fā)布“關(guān)于政協(xié)十三屆全國委員會第二次會議第2282號(公交郵電類256號)提案答復的函”。 根據(jù)答復函,在制定工業(yè)半導體芯片發(fā)展戰(zhàn)略規(guī)劃、出臺扶持技術(shù)攻關(guān)及產(chǎn)業(yè)發(fā)展政策方面,工信部及相關(guān)部門將持續(xù)推進工業(yè)半導體材料、芯片、器件及IGBT模塊產(chǎn)業(yè)發(fā)展,根據(jù)產(chǎn)業(yè)發(fā)展形勢,調(diào)整完善政策實施細則,更好的支持產(chǎn)業(yè)發(fā)展。通過行業(yè)協(xié)會等加大產(chǎn)業(yè)鏈合作力度,深入推進產(chǎn)學研用協(xié)同,促進我國工業(yè)半導體材料、芯片、器件及IGBT模塊產(chǎn)業(yè)的技術(shù)迭代和應用推廣。 在推動我國工業(yè)半導體芯片材料、芯片、器件及IGBT模塊產(chǎn)業(yè)發(fā)展方面,工信部和相關(guān)部門將通過引導國內(nèi)企業(yè)、研究機構(gòu)等加強與先進發(fā)達國家產(chǎn)學研機構(gòu)的戰(zhàn)略合作,進一步鼓勵我國企業(yè)引
[手機便攜]
工信部:將推進工業(yè)半導體材料、<font color='red'>芯片</font>、器件和IGBT模塊產(chǎn)業(yè)
貿(mào)澤智能革命系列電子書帶您了解AI在公共安全領(lǐng)域的作用
貿(mào)澤電子 (Mouser Electronics) 宣布推出智能革命系列的第二本電子書Artificial Intelligence: A Multi-Faceted Approach to Safety(人工智能:多方位的安全保障) 。這本新電子書收錄了專業(yè)人士所撰寫的多篇文章,探討人工智能 (AI) 在公共安全領(lǐng)域的各種應用,包括從醫(yī)療保健到機器人的新用途。 貿(mào)澤電子亞太區(qū)市場及商務拓展副總裁田吉平女士表示:“今年大家已經(jīng)認識到了為公共衛(wèi)生和安全領(lǐng)域開發(fā)新解決方案的重要性,并且人工智能已經(jīng)在許多應用中實現(xiàn)了關(guān)鍵性的突破。智能革命系列的這本新電子書探討了其中一些新型AI應用,指出新開發(fā)的解決方案將為公共衛(wèi)生和安全帶來顯
[物聯(lián)網(wǎng)]
貿(mào)澤智能革命系列電子書帶您了解<font color='red'>AI</font>在公共安全領(lǐng)域的作用
英特爾PowerVia技術(shù)率先實現(xiàn)芯片背面供電,突破互連瓶頸
英特爾率先在產(chǎn)品級芯片上實現(xiàn)背面供電技術(shù),使單元利用率超過90%,同時也在其它維度展現(xiàn)了業(yè)界領(lǐng)先的性能。 英特爾宣布在業(yè)內(nèi)率先在產(chǎn)品級測試芯片上實現(xiàn)背面供電(backside power delivery)技術(shù),滿足邁向下一個計算時代的性能需求。作為英特爾業(yè)界領(lǐng)先的背面供電解決方案, PowerVia將于2024年上半年在Intel 20A制程節(jié)點上推出 。通過將電源線移至晶圓背面,PowerVia解決了芯片單位面積微縮中日益嚴重的互連瓶頸問題。 英特爾技術(shù)開發(fā)副總裁Ben Sell表示:“英特爾正在積極推進‘四年五個制程節(jié)點’計劃,并致力于在2030年實現(xiàn)在單個封裝中集成 一萬億個 晶體管,PowerVia對這兩大目標而
[半導體設(shè)計/制造]
英特爾PowerVia技術(shù)率先實現(xiàn)<font color='red'>芯片</font>背面供電,突破互連瓶頸
從手機雙攝“鼻祖”到邊緣視覺AI方案,看華晶科技轉(zhuǎn)型路
集微網(wǎng)報道,它被稱為手機雙攝方案“鼻祖”! 它為國內(nèi)外一批爆款手機提供圖像處理硬軟件方案! 如今它又在邊緣視覺AI領(lǐng)域大放異彩,獲得亞馬遜、英特爾、微軟等青睞! …… 沒錯,手機行業(yè)內(nèi)人一下就能猜到——“華晶科技(Altek)”。作為幕后英雄,這些年來華晶科技一直在產(chǎn)業(yè)鏈背后做著默默的支撐服務,很少走到臺前介紹自己。 隨著智能手機產(chǎn)業(yè)鏈的日漸成熟,以及5G、AI 帶來的全新場景和產(chǎn)品形態(tài)的變化,華晶科技也正在向更大的IoT 領(lǐng)域做戰(zhàn)略布局。 近日,集微網(wǎng)走訪了華晶科技上海子公司“聚豪晶影像科技”,他們首次對外披露了全新的戰(zhàn)略和產(chǎn)品規(guī)劃。 視覺影像專家,手機雙攝方案“鼻祖” 將華晶科技稱之為“視覺影像專家”一點都不夸張! 成立于19
[手機便攜]
科技是把“雙刃劍”,淺談被人工智能對現(xiàn)代人的影響
????據(jù)eeworld網(wǎng)報道近期,一則消息稱,亞馬遜Alexa語音助手負責人保羅-卡青格(Paul Cutsinger)表示,在不久的將來,語音技術(shù)和人工智能將會帶來新的巨變。他表示,我們距離“環(huán)境計算”時代已不遙遠。在這個時代,現(xiàn)在的簡單交流方式將會被內(nèi)容豐富和層次多樣的討論所取代。那么,我們就來總結(jié)一下,人工智能技術(shù)究竟可以為我們帶來哪些切實的影響。?   人工智能技術(shù)的發(fā)展歷史:   1956年夏,美國達特莫斯大學助教麥卡錫、哈佛大學明斯基、貝爾實驗室申龍、IBM公司信息研究中心羅徹斯特、卡內(nèi)基——梅隆大學紐厄爾和赫伯特。西蒙、麻省理工學院塞夫里奇和索羅門夫,以及IBM公司塞繆爾和莫爾在美國達特莫斯大學舉行了以此為其兩個月
[安防電子]
三星新Exynos芯片在開發(fā)中,目標追趕蘋果A14
雖然三星的 Exynos 2100 比 Exynos 990 有了很大的進步,但在純粹的性能方面,A14 Bionic 繼續(xù)保持著領(lǐng)先的地位。 雖然 Exynos 2100 在純 CPU 測試中與驍龍 888 相媲美,但早前的速度測試顯示,GPU 性能不及后者,這可能就是三星尋求 AMD 的專業(yè)技術(shù)來優(yōu)化下一款芯片組的性能和效率的原因。韓國社區(qū)網(wǎng)站 Clien 發(fā)布的一則傳聞稱,三星正在開發(fā)新款 Exynos 芯片組,目標達到蘋果 A14 Bionic 的性能。   這是一個雄心勃勃的計劃。該傳聞還聲稱,性能目標可以根據(jù)發(fā)布時間線的不同而提高?,F(xiàn)在假設(shè)如果三星計劃稍晚一點公布新的 Exynos 旗艦 SoC,那么它可
[手機便攜]
4G手機芯片殺價沖量3大廠毛利率陷苦戰(zhàn)
大陸電信營運商將在第3季再次發(fā)動4G智能型手機補貼大戰(zhàn),手機供應鏈業(yè)者紛備妥4G手機新品準備傾巢而出,從近期高通(Qualcomm)、聯(lián)發(fā)科及邁威爾(Marvell)4G手機芯片訂單能見度來看,出貨量可望倍增,顯示大陸4G手機市場需求起飛,然手機芯片廠對于后續(xù)毛利率走勢卻存隱憂,在芯片殺價沖量策略下,4G手機芯片出貨越多,恐越不利毛利率表現(xiàn)。 觀察高通、邁威爾及聯(lián)發(fā)科第2季毛利率表現(xiàn),以及對于第3季毛利率預期,高通、邁威爾均開始出現(xiàn)下滑走勢,高通已將平均毛利率目標下修到約47%,至于聯(lián)發(fā)科因為4G手機出貨還不明顯,毛利率仍維持略增,但公司亦坦言第3季毛利率成長將極具壓力,凸顯4G手機芯片價格持續(xù)下滑,使得4G手機芯片賣越
[手機便攜]
Meta推出新自研AI芯片,以減少對外部半導體供應商的依賴
Meta正在部署一款新的自研芯片,以幫助推動其人工智能服務的發(fā)展,旨在減少對Nvidia等外部公司的芯片依賴。 這款于周三宣布的芯片是Meta訓練和推理加速器(MTIA)的最新版本,它有助于在Facebook和Instagram上對內(nèi)容進行排名和推薦。Meta去年發(fā)布了首款MTIA產(chǎn)品。 Meta轉(zhuǎn)向AI服務帶來了對計算能力的更大需求。去年,這家社交媒體巨頭發(fā)布了自己的AI模型版本,與OpenAI的ChatGPT競爭。它還為其社交應用添加了新的生成式AI功能,包括定制貼紙和名人面孔聊天機器人角色。 今年10月,該公司表示將在支持AI的基礎(chǔ)設(shè)施上投入高達350億美元,包括數(shù)據(jù)中心和硬件?!?024年,AI將是我們最大的投資領(lǐng)域,”首
[半導體設(shè)計/制造]
小廣播
最新網(wǎng)絡(luò)通信文章
電子工程世界版權(quán)所有 京B2-20211791 京ICP備10001474號-1 電信業(yè)務審批[2006]字第258號函 京公網(wǎng)安備 11010802033920號 Copyright ? 2005-2025 EEWORLD.com.cn, Inc. All rights reserved