生成式人工智能正在迅速拓寬其應用邊界,你可能以為它還隻是一個聊天機器人,實際上,生成式AI已經能『造』芯片了。
近日,紐約大學坦登工程學院的研究人員通過與AI『對話』,首次實現了由人工智能來設計一種微處理器芯片。
該團隊用『史無前例』描述此項研究。
據稱,這項成果的發佈表明——生成式人工智能在硬件設計領域具備極高的潛在應用價值,這不僅會對整個半導體芯片的研發起到加速作用,同時意味著『高不可攀』的半導體芯片設計門檻也會降低,甚至並非專門擁有該領域技術技能的人也可以參與其中。
作為參與者之一,紐約大學坦登工程學院電氣與計算機工程系、紐約大學網絡安全中心助理教授哈蒙德・皮爾斯博士(Dr. Hammond Pearce)自己坦言,『我根本不是芯片設計專家,這是我設計的第一塊芯片,這也正是為什麼我覺得它會如此令人印象深刻的原因』
目前該項研究已經發佈在arxiv預印本平臺上,論文題為ChipChat:對話式硬件設計的機遇與挑戰。
在論文中,研究團隊展示了兩名硬件工程師如何通過用英語與GPT-4『交流』,進而設計出新型微處理架構並送去制造的過程。
他們到底如何完成ChipChat項目研究的?一起來看看。
一個『好奇』翻開了生成式AI的另一面
ChipChat項目的啟動或許隻是源於一個『好奇』。
人工智能潮湧下,多數人對於大語言模型(LLM)的理解仍然停留在『好玩』,但皮爾斯博士顯然並不這麼認為。
ChipChat項目就是要探索——現有的生成式AI大語言模型在硬件設計領域的能力和局限性。
一般來說,開發任何類型的硬件,包括芯片在內,都需要從常用語言的需求描述開始,然後通過需求對接,再讓專業的工程師用適合開發的語言對硬件進行描述。
在上述過程中,我們需要將自然語言描述轉換成硬件描述語言 (HDL),比如Verilog,這使得隻有少數經多年培訓的工程師才能上手。
ChipChat項目正是面向該問題探索解決途徑。
為此,研究團隊計劃先通過對話的方式讓AI生成相應代碼,然後對代碼加以檢驗,直到確認無誤後,他們再將編寫的Verilog交付工廠進行生產;
基於上述思路,他們用提示詞一同測試了OpenAI旗下ChatGPT的4和3.5版,以及谷歌的Bard和HuggingChat一共4種生成式對話AI,通過對話方式提供提示詞,讓它們設計一個8位移位寄存器。
這4個大語言模型均為近期熱門角色,其中,GPT-4發佈於今年3月份,3.5版本的推出時間是在去年11月。
HuggingChat是來自Huggingface平臺的開源對話模型,推出時間為今年4月。
初步測試顯示,Bard和HuggingChat兩個模型在測試中對話生成設計一直未能滿足設計要求,研究團隊嘗試5次仍未能達標。
相比下,兩個版本ChatGPT的設計初步滿足了設計規格要求。
即便發生錯誤,經過調試,ChatGPT亦能自行調整代碼,以達到人類要求:
更進一步,研究團隊讓兩個版本的ChatGPT面向更多需求進行相關設計,再依靠模擬反饋結果進行調試。
這其中,『NFN』為無需反饋直接完成任務;『TF』指的是AI依據機器運行結果反饋,最終調整好了結果;『SHF』及『AHF』,為簡單與復雜的人類反饋指導下AI完成了任務;倘若會話超過25條消息或需要人類上手,則視為失敗,即『FAIL』。
具體如下圖。
能看出GPT-4表現明顯好於更早版本,面對諸多基準測試失敗情況很少,且對話輪數也明顯少於GPT-3.5。
在前面基礎上,研究者們通過124次對話成功讓GPT-4設計出一個8位累加器微處理器,經由Skywater 130nm shuttle進行制造。
團隊聲稱,這項研究標志著大語言模型設計的 IC 首次真正投入生產。
但值得一提的是,即便表現最好的GPT-4仍然耗費了研究者很多時間調試、不斷給提示詞,有的代碼生成了數十次。
且研究者承認,目前如果沒有人類提示,AI還不能獨立進行芯片設計,但作者仍然認為,它可以在設計通用模塊時節省工程師們的時間。
此外,他們還需要進一步測試來識別和解決 AI 用於芯片設計所涉及的安全問題。
生成式AI應用於芯片設計並非首次
介紹下本文的作者們。
哈蒙德・皮爾斯博士是紐約大學坦登工程學院電氣與計算機工程系、紐約大學網絡安全中心的研究助理教授,主攻方向為信息物理系統(cyber-physical systems,CPS)及其網絡安全,同時兼顧研究機器學習在該領域設計和應用中潛在的影響。
除了前述提到的皮爾斯博士,ChipChat項目的其他成員也均來自於紐約大學坦登工程學院,包括拉梅什·卡裡教授(Ramesh Karri)、研究所副教授希達赫·加爾格(Siddharth Garg)和博士生傑森·佈洛克洛夫(Jason Blocklove)。
拉梅什・卡裡教授是洪堡獎學金的獲得者(the recipient of the Humboldt Fellowship)和美國國家科學基金會職業將獲得者(the National Science Foundation CAREER Award),在紐約大學坦登工程學院電氣和計算機工程系任教授。
迄今為止,他已經發佈期刊和會議出版物超200件,包括多次在IEEE上發表署名文章。
希達赫・加爾格在紐約大學坦登工程學院ECE研究所任副教授一職,其研究方向是機器學習、網絡安全和計算機硬件設計。
2015年,Siddharth Garg獲得美國國家科學基金會職業獎。
同時,他在計算機工程和計算機硬件領域的多個頂級會議的技術計劃委員會任職,並擔任IEEE和ACM多個期刊的審稿人。
以上大牛們的嘗試雖然聽起來新潮,但事實上將AI應用於包括芯片在內的硬件設計已經並非一個新概念。
早在2021年時,谷歌團隊曾發佈論文《A graph placement methodology for fast chip design》,其中就介紹了一種用於芯片版面規劃的深度強化學習方案。
通過該方法自動進行芯片版面規劃,所需時間可以壓縮到6小時以內,且設計出來的芯片在關鍵指標,如功耗、性能以及芯片面積等,均可相媲美人類設計的產品,甚至有過之而無不及。
彼時,該團隊還透露這一方法將會用在設計下一代人工智能加速器上,並且相比人類成果而言,可為每代加速器設計節省數千小時。
除了谷歌之外,英偉達、三星、新思、Cadence等都在積極探索如何用深度強化學習設計芯片電路。
在英偉達相關研究人員發佈的論文《PrefixRL:Optimization of Parallel Prefix Circuits using Deep Reinforcement Learning》中提出了PrefixRL,該方法不僅證明AI可以從頭開始設計電路,而且比EDA工具設計的更小、更快。
在英偉達最新的Hopper架構中,就擁有13000個AI設計的電路的實例。
值得補充的是,人工智能三巨頭之一的LeCun最近在連線智源大會演講中,重申了自己一如既往的觀點:『基於自監督的語言模型無法獲得關於真實世界的知識』。
他繼續補充道:『人類有許多知識是目前無法被語言系統所觸達的』。
由此可見,對話AI到底能不能參與芯片及硬件設計,目前還未達成共識。