您的位置:首頁 >綜合 > 動態(tài) >

軟硬件雙向驅(qū)動 英特爾加速AI on PC落地

以ChatGPT、Claude2、Stable Diffusion、Midjourney等為代表的生成式AI崛起的背后,是大眾用戶親眼看到了AI技術(shù)切實落地到了實際應(yīng)用之中,并為工作、創(chuàng)作、創(chuàng)意帶來前所未有的效率提升。它與AI1.0時代的卷積神經(jīng)網(wǎng)絡(luò)、深度學(xué)習(xí)等看起來就頗具技術(shù)門檻的核心技術(shù)相比,顯然更接地氣,更容易為大眾所接受。


(相關(guān)資料圖)

毫無疑問,如今的我們正處在人工智能技術(shù)發(fā)展的關(guān)鍵階段,它正在逐漸滲透到人類生活、工作、學(xué)習(xí)的方方面面。而生成式AI作為AI宏觀體系中的一次大突破,正以驚人速度改變著自然語言處理、創(chuàng)意生成以及智能助手等領(lǐng)域的實踐落地。而在這個過程中,英特爾作為半導(dǎo)體、軟件、AI等技術(shù)領(lǐng)域的領(lǐng)導(dǎo)者和領(lǐng)先者,正以其強大的軟硬件支持,為生成式AI的蓬勃發(fā)展構(gòu)筑核心生態(tài)。

·硬件:AI普及的關(guān)鍵是讓普通電腦也能輕松跑動各種大模型

一般來說,絕大部分AI相關(guān)應(yīng)用的著力點在GPU,因為它擁有強大的并行計算能力和浮點性能。但是此前在大灣區(qū)的一場技術(shù)分享會上,英特爾顛覆了我們對于AI計算硬件的認知。

通過構(gòu)建BigDL-LLM庫的方式,英特爾讓ChatGPT這樣的大語言模型順利運行在了支持AI加速引擎的第12代和13代酷睿處理器平臺上,并通過一系列優(yōu)化使其速度達到了非常流暢的級別。即便是主打續(xù)航、便攜能力的輕薄本,也能在16GB及以上內(nèi)存容量平臺中順利運行最高達160億參數(shù)的大語言模型。而讓普普通通的筆記本電腦都能夠順利支持AI應(yīng)用,這必然會為AI普及構(gòu)筑出前所未有的堅實基礎(chǔ)。

此外,BigDL-LLM庫不僅支持ChatGPT一種大語言模型,它還實現(xiàn)了對LLaMA/ LLaMA2、ChatGLM/ChatGLM2、MPT、Falcon、RedPajama等多個大語言模型的支持。而且英特爾還提供了易用的LangChain開源框架、Transformers神經(jīng)網(wǎng)絡(luò)API接口,并順利支持Windows、Linux操作系統(tǒng),從而為不同平臺的開發(fā)者們也帶來了巨大便利。

此外別忘了,英特爾現(xiàn)在也是高性能GPU領(lǐng)域的參與者,旗下的銳炫GPU不僅擁有應(yīng)用于大型數(shù)據(jù)中心、服務(wù)器領(lǐng)域的產(chǎn)品,在消費市場落地的銳炫A系列顯卡同樣能夠為生成式AI應(yīng)用提供可靠的算力支持。因此在Stable Diffusion、Midjourney這樣的需要GPU算力的圖像生成式AI應(yīng)用領(lǐng)域,英特爾同樣能夠提供“專業(yè)對口”的硬件支持。如臺式機端的13代酷睿i7-13700K處理器加上銳炫A770獨顯,就能夠非常高效地運行Stable Diffusion。

·軟件:積極擁抱AI社區(qū)通過軟件優(yōu)化提升AI應(yīng)用體驗

如果說硬件為應(yīng)用落地構(gòu)建了基礎(chǔ),那么軟件就是如何在基礎(chǔ)之上構(gòu)建高樓,而軟件層面的優(yōu)化,則是考慮如何讓“高樓”從毛坯變成精裝。

一直以來,英特爾在軟件領(lǐng)域的投入都十分令人矚目。通過精心構(gòu)建軟件生態(tài),優(yōu)化模型性能,英特爾為生成式AI在個人電腦端的應(yīng)用創(chuàng)造了有利條件。

英特爾積極擁抱AI社區(qū),通過基于OpenVINO PyTorch后端的方案,使得開源模型能夠在英特爾的客戶端處理器、集成顯卡、獨立顯卡和專用AI引擎上順暢運行。

同樣以生成式AI應(yīng)用中最火的圖形視覺領(lǐng)域為例,英特爾開發(fā)了一套專門的AI框架,它可以在開啟OpenVINO加速的情況下,僅通過一行代碼的安裝,就可以加速PyTorch模型運行。此時,就可以讓Stable Diffusion Automatic1111 WebUI在集成顯卡和銳炫獨立顯卡上流暢運行。

我們在一臺13代酷睿i7-13700H處理器+銳炫Xe核顯機器上試著讓Stable Diffusion生成一張圖片,所提的需求并未太過復(fù)雜,總體耗時為44秒,完成速度算是相當(dāng)快的了,畢竟這是在移動平臺的核顯上做的圖片渲染和生成。

目前,單單是96EU的銳炫Xe核顯,就可以支持在Stable Diffusion上運行FP16精度的模型,從而快速生成高質(zhì)量圖片,為內(nèi)容創(chuàng)作、視覺創(chuàng)意提供便利。

從這一案例可以看出,無論是文字生成圖片還是圖片生成圖片,英特爾通過軟件優(yōu)化、模型優(yōu)化,將模型對硬件資源的需求盡可能降到最低,從而提升模型的推斷速度,確保那些以往需要高性能顯卡才能運行的開源模型能夠在個人電腦上也能高效運行,這對于AI應(yīng)用普及同樣是意義非凡。

·英特爾大語言模型應(yīng)用落地12代、13代酷睿電腦全部支持

在8月18日舉辦的大灣區(qū)技術(shù)分享會上,英特爾還進一步展示了其軟硬件體系在大語言模型應(yīng)用方面的實際表現(xiàn)。通過集成了ChatGLM2、LLa MA2和Star Coder三個大語言模型的英特爾大語言模型應(yīng)用Demo,成功展示了這些大語言模型在中文和英文應(yīng)用方面的表現(xiàn)。

比如我們通過它詢問了“AI在PC領(lǐng)域上的應(yīng)用”,它的首次響應(yīng)延遲只有215.3ms,也就是在提交問題到AI識別問題,再到開始生成問題答案的過程只有215.3ms,可以說是非常迅速。

此外可以看到,這款軟件集成了中文、英文、代碼三種語言環(huán)境,對應(yīng)功能的指向性也很明確。聊天、情感分析、中文翻譯、故事創(chuàng)作等等,可以說是涵蓋了大語言模型的常見應(yīng)用。這樣的分類可以幫助用戶更加明確地向AI提出需求,而如何明確、正確提出需求,本身也是目前AI應(yīng)用中的難點之一。

我們也試著向AI提出了“和女朋友吵架了怎么哄她”的情感分析需求,首次響應(yīng)時間為249.8ms,比上一個問題響應(yīng)慢一些,可見和女朋友的情感問題擺在AI面前,它也需要多加思考一番。

英特爾借助軟件端優(yōu)化和量化操作,使得大語言模型在進行回答時能夠以非??斓乃俣壬纱鸢?,并且不影響整機使用流暢性,這同樣也是AI應(yīng)用普及的重要一步。目前英特爾已經(jīng)發(fā)布了這套Demo,任何搭載英特爾12代和13代酷睿的電腦都可以直接安裝并進行體驗。

·英特爾:AI on PC的核心賦能者

英特爾不僅僅是AI技術(shù)的提供者,更是讓AI on PC從“PPT”走向?qū)嶋H落地的核心賦能者。

借助支持AI加速引擎的12代、13代酷睿處理器,借助具備高效浮點性能的銳炫GPU等強力硬件,并且快速推出英特爾大語言模型應(yīng)用Demo以及通過后端優(yōu)化和OpenVINO加速來更好地支持Stable Diffusion圖形視覺領(lǐng)域的AI應(yīng)用,AI借助PC實現(xiàn)全面普及只是時間問題。

現(xiàn)階段,大眾用戶對于生成式AI應(yīng)用的使用意愿極為強烈,因為它確實能夠解決很多實際問題。如提升辦公效率、提供輔助設(shè)計和創(chuàng)意理念等等,這些應(yīng)用能夠徹底改變?nèi)祟惉F(xiàn)階段的工作、生活方式,激發(fā)人們在創(chuàng)作、創(chuàng)意層面的靈感,而硬件性能強大的電腦無疑是最佳載體。

除了已經(jīng)發(fā)布的第12代與13代酷睿之外,英特爾下一代Meteor Lake處理器也將進一步強化對于AI的底層支持,專門設(shè)計的NPU將為AI應(yīng)用帶來更加高效的體驗。

在生成式AI集中落地的大潮中,英特爾是一個不可或缺的關(guān)鍵因素。從強勁性能的硬件支持到模型優(yōu)化的軟件技術(shù),英特爾為生成式AI的發(fā)展提供了全方位支持。在英特爾的引領(lǐng)下,生成式AI與PC將實現(xiàn)驚人的化學(xué)反應(yīng),為人類帶來更智能、更富創(chuàng)意PC使用體驗。

文章來源:中關(guān)村在線

關(guān)鍵詞:
最新動態(tài)
相關(guān)文章
軟硬件雙向驅(qū)動 英特爾加速AI on PC落地
廣州市住建局:“認房不認貸”政策執(zhí)行...
寶鋼包裝(601968.SH)發(fā)布上半年業(yè)績,凈...
招商局港口上半年凈利潤33.5億港元,上...
荊門東寶區(qū)泉口街道:志愿者和社區(qū)工作...
u盤 病毒(u盤病毒免疫)