產品列表
品牌專區
BOM詢價
關于我們
“我們的芯片,馬上就能規模量產了,這將實現國產高速光芯片的新突破!”7月20日,江蘇鈮奧光電科技有限公司總經理蔡文杰分享了這一好消息。該項目快速產業化的背后,源于南京市級科創基金的一筆1000萬元天使投資。
在任何電氣系統中,電流都是一個至關重要的參數。電動汽車 (EV) 充電系統和太陽能系統都需要檢測電流的大小,以便控制和監測功率轉換、充電和放電。電流傳感器通過監測分流電阻器上的壓降或導體中電流產生的磁場來測量電流。金屬氧化物半導體場效應晶體管 (MOSFET) 控制方案使用電流信息來控制光伏逆變器操作,或者檢測交流輸出或輸出上的電流,以保護元件免受過流或故障事件的影響。電流傳感器有多種不同類型可供選擇,每種技術都各有優缺點。對于特定的應用,最適合的電流傳感器類型取決于多個因素,包括系統的功率等級、預期的精度和成本。本文將探討何種器件適合在電動汽車充電器和光伏逆變器中檢測電流。電動汽車充電器中的電流檢測在電動汽車充電器中,電流傳感器用于測量輸入交流電源、直流/直流轉換器和輸出電源等位置的電流,以確認充電器是否正確地將交流電輸送到電動汽車的車載充電器系統,或者將直流電直接輸送到電池。如今,400V 電池正在朝著 800V 甚至更高電壓的方向發展,以實現更大功率和快速充電。在 1 級和 2 級充電器中,充電器將交流電輸送到電動汽車的車載充電器,車載充電器又會將輸入的交流電轉換為更合適的電壓和電流電平,以便為電動汽車電池充電。在家用 1 級和 2 級充電器中,電流檢測通常不需要非常高的精度,因為沒有對用戶進行計費。不過,電流信息使用戶可以通過應用或充電器上的用戶界面來大致了解電流和功耗情況。圖 1 展示了停車場中的兩個 2 級電動汽車充電器和兩輛正在充電的電動汽車。在 3 級電動汽車充電器中,充電基礎設施會將交流電轉換為直流電,以便直接向電池快速輸送直流電,從而繞過傳統的車載充電器并在充電站實現超快速電動汽車充電。電動汽車充電器和電池的功率容量提升有助于滿足快速充電和增加續航里程的需求。電流檢測可以幫助控制充電過程,確保以最佳的方式安全地為電池充電,從而延長電動汽車和電池系統的使用壽命。在 3 級充電器中,開關信號的頻率為 50kHz 至 100kHz,因此需要至少 250kHz 的電流傳感器,才能獲得適當的測量數據。另外,傳播延遲也非常重要,因為電流傳感器需要能夠在信號切換時迅速地響應變化。德州儀器 (TI) 的 TMCS1123 等器件未經校準時,整個溫度和壽命范圍內的最大誤差為 ±1.75%,經過單點校準后,整個溫度和壽命范圍內的誤差降至 ±1.00%。由于 TMCS1123 在電流信息方面具有高精度和高速度,這些精度和速度規格使系統工程師能夠從隔離式直流/直流轉換器中去除直流阻斷電容器,從而幫助系統工程師在設計 3 級充電器時節省成本。光伏逆變器中的電流檢測在光伏逆變器系統中,電流傳感器用于測量多種配置中的電流,例如逆變器的交流和直流輸入、直流/直流升壓、直流/直流轉換器和電網輸出,從而幫助監測和控制功率轉換過程。住宅光伏逆變器中會對各個電源軌進行電流檢測,其中電源軌的電壓電平可能高達 1,000VDC,但光伏輸入端的電壓通常約為 500V 至 600VDC,而電網輸入和輸出則高達 400VAC。電流檢測功能可以幫助優化光伏逆變器系統,確保電網輸出上輸送的功率水平和頻率可靠且適當,使得所有負載都處于其安全工作區 (SOA) 內。光伏逆變器中的開關信號與電動汽車充電器中的開關信號相似,頻率介于 50kHz 至 100kHz 之間。此外,還可以將電流傳感器用于診斷目的,例如監測太陽能電池板是否存在可能表明連接松動或電池板損壞的故障。TMCS1123 提供 ±1,100VDC 的增強型工作電壓,非常適合用于大多數串式逆變器。圖 2 展示了幾個單相串式逆變器中使用的電流和電壓檢測示例并以紅框標出了相應電路部分。光伏逆變器中典型逆變器的方框圖電流檢測設計考慮因素下面我們來了解為電動汽車充電系統和光伏逆變器系統選擇電流傳感器時的一些主要考慮因素:? 額定功率。電流傳感器(無論是基于磁體、基于分流器還是其他技術)必須能夠處理系統的工作電流和電壓水平。設計人員必須根據系統的輸入選擇合適的技術,以確保電流可以在系統的整個壽命內不間斷地流入系統。? 精度。電流傳感器必須足夠精確,以提供預期的控制和監測功能,確保系統能夠在 SOA 內按預期運行。高精度有助于保持高效率水平,同時減少元件數量,以及因嘈雜的開關系統而可能注入電網的任何諧波。? 帶寬。在開關系統中,速度是一個重要參數。TMCS1123 提供 250kHz 的信號帶寬和 600ns 的傳播延遲,這為系統提供了足夠的速度來進行適當的測量。TI 還在開發更多具有類似機械尺寸的高速器件。我們觀察到,在我們的器件中,隨著帶寬增加,傳播延遲會減小。? 成本。在選擇電流傳感器時,必須權衡考慮傳感器的成本及其提供的優勢。一體式封裝的霍爾效應電流傳感器通常限制為只能檢測特定范圍內的電流,而基于分流器的系統則更加靈活,因為您可以根據系統參數來選擇分流電阻值。基于分流器的電流檢測技術在電動汽車充電系統、光伏逆變器系統以及其他需要電流檢測的系統中,最常見的電流檢測技術是霍爾效應電流傳感器和基于分流器的電流傳感器。與霍爾效應電流傳感器相比,基于分流器的電流傳感器通常在整個電流范圍內精度更高。使用穩定的放大器技術或模數轉換器 (ADC) 和精密分流電阻器時,基于分流器的電流傳感器可以在整個電流測量范圍、工作溫度范圍以及使用壽命內實現誤差不到 1% 的精度。基于分流器的解決方案可能非常簡單,可以是一個運算放大器、一個專門設計的電流檢測放大器(比如 TI 的 INA241A)、一個用于較高電壓的隔離式放大器(比如 TI 的 AMCS1300B)或者具有數字輸出的 Σ-Δ 調制器(比如 TI 的 AMCS1306)。這類放大器通常用于監測分流電阻器上的壓降并提供比例電壓輸出。每種解決方案在工作電壓、失調電壓、漂移、帶寬和易用性方面均有所不同。與一體式封裝的霍爾效應解決方案非常類似,基于分流器的傳感器也屬于存在電阻的侵入性技術,功耗也是整體設計中需要考慮的一個因素。霍爾效應電流檢測技術一體式封裝的霍爾效應電流傳感器在高壓系統中很受歡迎,因為它們提供了增強型隔離或雙重隔離。不過,霍爾效應電流傳感器會在整個溫度和生命周期內發生漂移,這一點讓它獲得的評價不高。TI 將 TMCS1123 的漂移誤差大幅降低至 ±0.5%。該器件具有差分霍爾效應感應功能,能夠顯著減少磁場干擾或串擾,并且還提供了過流檢測、精密電壓基準和傳感器報警等其他功能;請參閱圖 3。使用一體式封裝解決方案時,電流通過引線框在封裝內流動,這會帶來引線框電阻和芯片散熱限制,進而會限制器件能夠處理的電流大小。TMCS1123 器件產品系列能夠在 25°C 時測量 75Arms 的電流。TMCS1123 方框圖其他解決方案包括環境霍爾效應傳感器或磁通門傳感器(比如 TI 的 DRV401),這些傳感器可能需要不同類型的磁芯、屏蔽或機械設計才能正常工作,而且制造或使用過程中的器件或電路板移動可能會導致位移誤差,進而有可能改變測量精度。高壓應用中存在多個設計挑戰,使得系統更難設計且成本更高。借助 TI 的產品系列和資源,您能夠以適當的價格快速解決各種設計問題,從而使技術進步能夠惠及大眾,對我們的生活產生更大的影響。
關于英偉達A800芯片可能被禁售的消息,正在引發連鎖反應。一位英偉達芯片代理商告訴記者,大約一周前,關于英偉達A800芯片被禁售的這個信號“讓市場上的A800價格一下子漲了起來。”據這位代理商介紹,英偉達A800 80GB PCie標準版GPU的市場價,15天前在9萬元人民幣/顆,“現在(一顆)11萬元左右。”即便價格飛漲,他告訴記者,英偉達的高端算力GPU芯片依然是“搶手貨”,在他看來,英偉達的H800系列GPU芯片目前還可以正常供應,只不過價格更高了。一面是越來越貴、越來越稀缺的高端芯片,一面是下游需求高漲的“百模大戰”,尋找另一條道路,成為迫在眉睫的選擇。在被認為是“史上最火爆”的上海2023年世界人工智能大會(WAIC)上,算力需求和缺口成為了高頻詞匯。7月7日上午,清華大學電子工程系教授汪玉表示,若以大語言模型作為底座,同時處理我國14億人的推理請求,所需的計算量超過目前我國數據中心總算力的3個數量級。他由此強調我國現有算力資源的緊張程度。“沒有大算力,做大模型就是天方夜譚。”中國工程院院士、鵬城實驗室主任高文也在WAIC上透露,團隊正在緊鑼密鼓地對一個2000億參數的大模型進行訓練,至少“需要4000塊卡訓練100天”。云計算技術專家劉世民早早注意到,國內正式渠道如今愈發買不到高端AI芯片,面對算力發展遭遇限制,他也看到,一些云廠商基于相關AI產品可以提供GPU算力這一最基礎的AI服務,當然,其中不乏AWS、Azure這樣的海外云服務商。“目前算力比較緊張,所以會選擇租賃云算力。”云從科技研究院的孫進透露,買不到高端算力卡,加之自建算力集群周期長,即便租賃云算力成本相較自建要高,“高出50%~100%”,但這依然成為一些對算力有需求的科技公司的選擇。如今,這條道路也在面臨更多挑戰:7月4日,有消息稱美國計劃對使用亞馬遜云、微軟云等海外云計算服務的中國企業施加限制。這是繼去年美國限制對華半導體出口,今年拉攏日本、荷蘭對華限制出口先進芯片制造設備后又一舉措,“現在估計又要封堵云GPU了。” Vibranium Consulting副總裁陳沛說。圍堵加碼陳沛介紹,云GPU要比自建GPU算力集群貴,“大型云廠商的價格差不多一小時2-3美元。”據他所知,AWS、Azure這樣的大型云服務商在新加坡有提供部分種類的云算力服務,在中國亦然。2022年8月,當英偉達的GPU計算芯片A100和H100被美國政府要求限制向中國出口后,對高端算力有需求的廠商,還可以在擁有先進制程AI芯片的AWS、Azure等云廠商提供的云端算力服務中得到滿足。而今限制如果繼續升級,中國廠商未來若想使用AWS、Azure等海外云服務商的云端算力服務,也要獲得美國政府許可才行。2022年,由IDC、浪潮信息、清華大學全球產業研究院聯合編制了一份《2021-2022全球計算力指數評估報告》,量化揭示了算力的重要性:全球各國算力規模與經濟發展水平顯著正相關,計算力指數平均每提高1點,數字經濟和GDP將分別增長3.5‰和1.8‰;美國和中國的計算力指數分別為77分和70分,同屬國別計算力的領跑者。上述半導體行業觀察人士建議,正在算力側展開自研創新的中國廠商們,當下“需要丟掉幻想”,她認為,只有不斷攻克芯片的成熟制程,疊加軟件創新才能共同提升算力。在中國算力突圍路徑中,國產GPU芯片自研替代被認為是第一大選擇,但這一選擇需要時間。目前最現實的選擇是,如何最大化地利用現有的高端芯片資源。算力共享按照外媒此前披露,作為微軟全力扶持的AI創業公司,OpenAI擁有微軟Azure云最高優先級的支持——約有2.5萬個英偉達GPU正在支持GPT大模型的訓練,這是目前世界上規模最龐大的AI服務器之一。而OpenAI光用在訓練ChatGPT上,就使用了1萬個英偉達的GPU。但即便是微軟,GPU也面臨缺口。今年6月,在公開的OpenAI CEO Sam Altman 談話紀要中提到,GPU的短缺拖延了Open AI客戶的許多短期計劃。但這份談話紀要很快被刪除。按照此前媒體報道,目前中國企業GPU芯片持有量超過1萬枚的不超過5家,擁有1萬枚A100的至多1家。且由于美國去年8月開始算力封鎖,這些存貨的剩余使用壽命約為4-6年。但現實正在急劇變化:伴隨著今年以來的生成式AI浪潮和大模型井噴,此前存在的缺口無疑還在進一步放大。由此,在國內推動“算力共享”被提上日程。北京市經信局4月下旬公布的“北京市通用人工智能產業創新伙伴計劃”,進展迅速。7月3日,計劃公布了第二批伙伴名單中共有63家企業,其中包括百度、京東、神州數碼和金山等10家算力供應伙伴。北京市經信局公布的第一批算力供應方伙伴名單只有兩家,一個是北京超級云計算中心,另一個便是阿里云計算有限公司。2022年8月30日,阿里云推出飛天智算平臺的同時,還啟動了張北和烏蘭察布兩座超大規模智算中心,以公有云和專有云兩種模式,為各類機構提供服務。彼時阿里云表示,其智算平臺以及智算中心可將計算資源利用率提高3倍以上,AI訓練效率提升11倍。毫無疑問,當國內算力供應因芯片卡短缺陷入緊張時,云端算力可以補位。當阿里云提出“算力普惠”的目標愿景時,華為也通過推出昇騰AI集群解決方案,以填補著算力需求和硬件算力供給間的溝壑。在7月6日下午的WAIC上,華為昇騰計算業務總裁張迪煊宣布,昇騰AI集群規模從最初的4000卡擴展升級至16000卡,成為業內首個萬卡AI集群,其算力已經在支撐像科大訊飛等企業進行大模型訓練以及智能化轉型。AI缺口如今受益于昇騰AI集群的算力支持,訊飛星火大模型的優化訓練在有序進行中。科大訊飛高級副總裁胡國平在WAIC上強調,所有的大模型訓練都強烈依賴高端AI芯片集群和生態。不過,孫進告訴記者,云端算力共享或租賃,往往適用于低頻訓練需求的廠商。“基于同樣或同類型的算力芯片,云廠商提供的云GPU確實可以形成替代。”但他表示,“各地建設的訓練算力集群,大部分是消費級推理卡集群,或者是CPU集群。”一般來說,算力被分為三類:通用算力、智能算力、超算算力。在傳統產業數字化轉型的場景中,基于普通CPU芯片集成的服務器所能提供的通用算力就可滿足;而人工智能發展、大模型的訓練和推理,這些對應的則是智能算力,是要基于AI芯片所提供的算力。此外,天體物理、航空航天等復雜運算則需要超算算力。據工信部消息,近年來中國算力產業規模快速增長,年增長率近30%,算力規模排名全球第二,僅次于美國。但當下的問題在于,這其中一部分并不是本輪生成式AI所需求的智能算力,而只是通用算力。此前發布的《中國算力指數發展白皮書(2022)》顯示,中、美在全球算力規模中的份額分別為33%、34%,其中通用算力份額分別為26%、37%,智能算力分別為28%、45%,超級算力分別為18%、48%。在劉世民看來,算力共享確實可以讓更多企業能用上算力,但先進芯片所代表的高端算力,一旦被限制,勢必限制國內算力的增長。而今,中國的人工智能產業又已經步入AIGC時代,參與其中的廠商需要進行的是高頻訓練,持續的優化迭代。值得關注的是,算力需求暴增下,供給背后的國產GPU自研以及軟件創新,都將是中國廠商亦步亦趨要解決的問題。陳沛說,種種限制框架下,英偉達提供的高端算力,在市場上不只受歡迎,還是剛需。陳沛記得2020年OpenAI訓練GPT-3時,用的是英偉達GPU芯片V100,“一萬顆,耗時14.8天”,但在一周前,他看到英偉達發出的最新測試結果中顯示,僅用3000多顆H100 GPU芯片,11分鐘就完成了GPT-3的模型訓練。“英偉達依然是AI訓練領域的老大。”陳沛說。一位國產AI大模型廠商的創始人也告訴記者,目前其自研的大模型正在儲備的英偉達算力芯片上“跑著”,盡管芯片禁售是未來式,但面對大模型浪潮所帶來的高頻算力需求,目前我們沒有太多的備選方案。
詢價列表 ( 件產品)