亚洲AV无码一区二区AI换脸,最新中文字幕AV无码不卡,欧美BBwHD老太大,特级毛片内射WWW无码

新聞資訊
如何在MCU上實(shí)現AIoT?瀏覽數:0

導讀

 

物聯(lián)網(wǎng)設備越來(lái)越多地采用人工智能技術(shù)來(lái)創(chuàng )建智能“物聯(lián)網(wǎng)”(AIoT),這使很多應用從中受益。同時(shí)也為MCU(微控制器)開(kāi)辟了新的市場(chǎng),賦能越來(lái)越多的新應用和新用例,以利用簡(jiǎn)單的 MCU搭配AI加速來(lái)促進(jìn)智能控制。這些AI加持的MCU融合了DSP計算和機器學(xué)習(ML)推理能力,適合關(guān)鍵字識別、傳感器融合、振動(dòng)分析和語(yǔ)音識別等多種應用。更高性能的MCU還可以支持更復雜的視覺(jué)和成像應用,例如人臉識別、指紋分析和自主機器人等。

 

本文圍繞AI技術(shù)、如何通過(guò)MCU實(shí)現AIoT以及邊緣AI等方面進(jìn)行了系統的分析。推薦給大家。

 
物聯(lián)網(wǎng)設備越來(lái)越多地采用人工智能技術(shù)來(lái)創(chuàng )建智能“物聯(lián)網(wǎng)”(AIoT),這使很多應用從中受益。這些智能物聯(lián)網(wǎng)設備從數據中學(xué)習,并在無(wú)需人工干預的情況下做出自主決策,從而使產(chǎn)品與其環(huán)境之間實(shí)現更合乎邏輯、更接近人類(lèi)的交互。
 
AI和物聯(lián)網(wǎng)的結合為MCU(微控制器)開(kāi)辟了新的市場(chǎng),賦能越來(lái)越多的新應用和新用例,以利用簡(jiǎn)單的 MCU搭配AI加速來(lái)促進(jìn)智能控制。這些AI加持的MCU融合了DSP計算和機器學(xué)習(ML)推理能力,適合關(guān)鍵字識別、傳感器融合、振動(dòng)分析和語(yǔ)音識別等多種應用。更高性能的MCU還可以支持更復雜的視覺(jué)和成像應用,例如人臉識別、指紋分析和自主機器人等。
 
 

01 AI技術(shù)

 
 
以下是為物聯(lián)網(wǎng)設備帶來(lái)AI功能的部分使能技術(shù):
 
  • 機器學(xué)習 (ML):機器學(xué)習算法根據代表性數據構建模型,使設備能夠在無(wú)需人工干預的情況下自動(dòng)識別模式。ML供應商提供算法、API 和工具以構建訓練模型,然后將模型植入到嵌入式系統中。輸入新的數據后,這些嵌入式系統就可以利用預先訓練的模型進(jìn)行推理或預測,這類(lèi)應用示例包括傳感器融合、關(guān)鍵字識別、預測性維護和分類(lèi)等。

  • 深度學(xué)習(DL):深度學(xué)習是機器學(xué)習的一種,它使用多層神經(jīng)網(wǎng)絡(luò )從復雜的輸入數據中逐步提取更高級別的特征和模式,從而訓練系統。深度學(xué)習可以適應非常龐大、多樣化和復雜的輸入數據,并讓系統不斷迭代學(xué)習,逐步改善輸出結果。其應用示例包括圖像處理、客服機器人和人臉識別等。

  • 自然語(yǔ)言處理 (NLP):NLP是人工智能的一個(gè)分支,可以實(shí)現系統與人類(lèi)之間用自然語(yǔ)言進(jìn)行交互。NLP幫助系統理解和解釋人類(lèi)語(yǔ)言(文本或語(yǔ)音),并基于此做出決策。其應用示例包括語(yǔ)音識別系統、機器翻譯和預測性打字等。

  • 計算機視覺(jué):機器/計算機視覺(jué)是人工智能的一個(gè)領(lǐng)域,它訓練機器收集、解釋并理解圖像數據,并根據這些數據采取行動(dòng)。機器通過(guò)攝像頭收集數字圖像/視頻,使用深度學(xué)習模型和圖像分析工具準確識別和分類(lèi)對象,并根據它們所“看到”的采取相應的行動(dòng)。其應用示例包括制造裝配線(xiàn)上的故障檢測、醫療診斷、零售店的人臉識別和無(wú)人駕駛汽車(chē)測試等。

 

 

02 通過(guò)MCU實(shí)現AIoT

 
 
過(guò)去,AI屬于MPU和GPU的應用范疇,它們擁有強大的CPU內核、大內存資源和進(jìn)行AI分析的云連接。但近年來(lái),隨著(zhù)邊緣智能程度的不斷提高,我們開(kāi)始看到MCU被用于嵌入式AIoT應用中。向邊緣轉移是基于延遲和成本的考慮,同時(shí)還可以讓計算處理更接近數據源?;贛CU的物聯(lián)網(wǎng)設備具有AI功能可以實(shí)現實(shí)時(shí)決策和更快的事件響應,而且還有更多其它優(yōu)勢,諸如更低的帶寬要求、更低的功耗、更低的延遲、更低的成本和更高的安全性。有了更高計算能力的新型MCU加持,再加上更適合資源受限MCU的神經(jīng)網(wǎng)絡(luò ) (NN) 框架,AIoT得以實(shí)現。
 
神經(jīng)網(wǎng)絡(luò )是很多節點(diǎn)的集合,這些節點(diǎn)按層排列。每一層都接收來(lái)自前一層的輸入,并根據輸入的權重和偏置總和進(jìn)行計算,以生成輸出。輸出沿其所有傳出連接傳遞到下一層。在訓練過(guò)程中,訓練數據被饋入網(wǎng)絡(luò )的第一層或輸入層,每一層的輸出再傳遞到下一層。最后一層或輸出層生成模型的預測,將其與已知的預期值進(jìn)行比較從而評估模型的誤差。訓練的過(guò)程需要在每次迭代中使用稱(chēng)為“反向傳播”的過(guò)程完善步驟,或調整網(wǎng)絡(luò )每一層的權重和偏置,直到網(wǎng)絡(luò )輸出與預期值密切相關(guān)。換句話(huà)說(shuō),網(wǎng)絡(luò )從輸入數據集中迭代“學(xué)習”,并逐步提高輸出預測的準確性。
 
神經(jīng)網(wǎng)絡(luò )的訓練需要極高的計算性能和內存,通常在云端進(jìn)行。訓練之后,這個(gè)預訓練的神經(jīng)網(wǎng)絡(luò )(NN)模型被嵌入到MCU中,即可作為推理引擎對新傳入數據進(jìn)行處理。

圖1: 神經(jīng)網(wǎng)絡(luò )的訓練與推理
 
這種推理生成所需要的計算性能比訓練模型要低很多,在MCU上即可實(shí)現。這種預訓練的神經(jīng)網(wǎng)絡(luò )模型權重是固定的,可以保存在閃存中,從而減少所需的SRAM數量,使其適用于更多資源受限的MCU。
 
 

03 如何在MCU上實(shí)現AIoT

 
 
MCU上的AIoT實(shí)現包含多個(gè)步驟。最常見(jiàn)的實(shí)現方法是使用現有的神經(jīng)網(wǎng)絡(luò ) (NN) 框架模型之一,例如Caffe或Tensorflow Lite,它們適用于基于MCU的終端設備解決方案。用于機器學(xué)習的NN模型訓練可由AI專(zhuān)業(yè)人員使用 AI供應商提供的工具在云端完成。NN模型優(yōu)化和MCU集成可以使用AI供應商和MCU制造商提供的工具進(jìn)行。推理則在MCU上采用預訓練的NN模型完成。
 
上述過(guò)程的第一步可以完全離線(xiàn)完成,涉及從終端設備或應用捕獲大量數據,并用于訓練NN模型。模型的拓撲結構由AI開(kāi)發(fā)人員定義,以充分利用現有數據并提供應用要求的輸出。NN模型的訓練是通過(guò)將數據集迭代傳遞給模型來(lái)完成的,目的是不斷最小化模型輸出的誤差。NN框架提供的工具可以幫助完成這個(gè)過(guò)程。
 
在第二步中,針對特定功能(如關(guān)鍵字識別或語(yǔ)音識別)進(jìn)行了優(yōu)化的預訓練模型被轉換為適應MCU的格式。在這個(gè)過(guò)程中,首先利用AI轉換器工具將模型轉換為flat buffer文件,也可以選擇通過(guò)量化器來(lái)轉換,以減小尺寸并針對MCU優(yōu)化。然后,將該flat buffer文件轉換為C代碼,并作為運行時(shí)可執行文件傳輸給目標MCU。
 
配備了預訓練嵌入式AI模型的MCU現在就可以部署在終端設備中了。當新數據導入時(shí),它在模型中運行,并根據訓練生成推理。當新的數據類(lèi)別出現時(shí),NN模型可以被發(fā)送回云端重新進(jìn)行訓練,然后可以通過(guò)OTA(空中更新)固件升級將重新訓練后的新模型編入MCU。
 
構建基于MCU的AI解決方案有兩種不同的方式。為便于討論,本文我們假設目標MCU采用Arm Cortex-M內核。

圖2:通過(guò)離線(xiàn)預訓練模型在MCU上實(shí)現AI。
 
在第一種方法中,轉換后的NN模型在Cortex-M CPU內核上執行,并通過(guò)CMSIS-NN庫加速。這是一種簡(jiǎn)單的配置,無(wú)需任何額外的硬件加速,適用于較簡(jiǎn)單的AI應用,例如關(guān)鍵字識別、振動(dòng)分析和傳感器集合等。
 
另一種更復雜和更高性能的選擇則需要在MCU上配置NN加速器或微神經(jīng)處理單元(u-NPU)硬件。這些u-NPU 可在資源受限的IoT終端設備中加速機器學(xué)習,并且可能還支持壓縮以降低模型的功耗和大小。所支持的運算可以完全執行大多數常見(jiàn)的NN網(wǎng)絡(luò ),以用于音頻處理、語(yǔ)音識別、圖像分類(lèi)和對象檢測。u-NPU不支持的網(wǎng)絡(luò )可以回退到主CPU內核,并由CMSIS-NN庫加速。在這種方法中,NN模型是在uNPU上執行的。
 
在配置了MCU的設備中實(shí)現AI不只有這兩種方法。隨著(zhù)MCU的性能不斷推向更高的水平,逐漸接近MPU的預期水準,我們將會(huì )看到完全的AI功能直接構建在MCU上,而且具有輕量級的學(xué)習算法和推理功能。
 
 

04 邊緣AI才是未來(lái)

 
 
在資源受限的MCU上實(shí)現AI將在未來(lái)呈指數級增長(cháng)。隨著(zhù)MCU性能的不斷提升,MCU和MPU之間的界限越來(lái)越模糊,同時(shí)出現越來(lái)越多適用于資源受限設備的“瘦”神經(jīng)網(wǎng)絡(luò )模型,新的應用和用例將不斷浮現。
 
未來(lái),隨著(zhù)MCU性能的提高,我們將會(huì )看到除推理之外的輕量級學(xué)習算法直接在MCU上實(shí)現。這將為MCU制造商開(kāi)辟新的市場(chǎng)與應用,并將成為其重要的投資領(lǐng)域。
 
—END—

服務(wù)熱線(xiàn):

0755-26727961 / 26727962 / 26727968

地址:深圳市南山區科技南十路6號航天科技創(chuàng )新研究院大廈B507-508室
郵箱:Sales@jhongtech.com

Copyright © 深圳市嘉鴻時(shí)代科技有限公司
粵ICP備16109508號