網頁

2025年4月7日 星期一

後量子密碼學 (Post-Quantum Cryptography, PQC)

  後量子密碼學 (Post-Quantum Cryptography, PQC),也稱為量子安全密碼學 (Quantum-Safe Cryptography)。

什麼是後量子密碼學 (PQC)?

後量子密碼學是指在量子電腦時代仍然安全的加密演算法。當前廣泛使用的公開金鑰加密演算法,例如 RSA、橢圓曲線密碼學 (ECC) 和迪菲-赫爾曼金鑰交換 (DH),在強大的量子電腦面前將變得不堪一擊。這是因為量子電腦能夠運行 Shor 演算法,可以在合理的時間內分解大整數 (RSA 的基礎) 和計算離散對數 (ECC 和 DH 的基礎)。

後量子密碼學的研究目標是開發新的加密演算法,這些演算法的安全性基於不同的數學難題,而這些難題被認為對於已知的量子演算法是難以解決的。

為什麼需要後量子密碼學?

  1. 量子電腦的發展: 雖然通用、容錯的大型量子電腦尚未實現,但其發展速度正在加快。許多國家和科技公司都在投入大量資源進行研究。
  2. 「先儲存,後破解」的威脅: 即使現在的量子電腦還不足以破解現有的加密,惡意攻擊者可能會儲存現在加密的數據,等待未來量子電腦成熟時再進行解密。這對長期保密的數據 (例如政府機密、商業機密、個人健康記錄等) 構成嚴重威脅。
  3. 遷移成本: 從現有的加密體系遷移到新的後量子加密體系需要時間和資源。越早開始研究和標準化後量子加密演算法,就能越好地為量子電腦時代做好準備。

後量子密碼學的主要方向 (NIST 標準化競賽的入選方案):

美國國家標準與技術研究院 (NIST) 自 2016 年起舉辦了一場公開的後量子密碼學標準化競賽,旨在選出未來美國政府和工業界可以使用的安全後量子加密演算法。經過多輪評選,NIST 於 2022 年和 2024 年宣布了首批和後續的標準化方案,主要基於以下數學難題:

  1. 基於格 (Lattice-based Cryptography):

    • 數學難題: 基於格上的困難問題,例如最短向量問題 (Shortest Vector Problem, SVP) 和最近向量問題 (Closest Vector Problem, CVP) 的變體。這些問題在經典電腦上被認為是難解的,並且目前沒有已知的有效量子演算法可以快速解決它們。
    • 優點: 理論基礎紮實,安全性分析相對成熟,許多方案在效率和金鑰大小方面表現良好。
    • NIST 標準:
      • 金鑰封裝機制 (Key Encapsulation Mechanism, KEM): CRYSTALS-Kyber
      • 數位簽章演算法 (Digital Signature Algorithm): CRYSTALS-Dilithium
  2. 基於雜湊函數 (Hash-based Cryptography):

    • 數學難題: 基於安全雜湊函數的性質,例如抗碰撞性、原像抵抗性和第二原像抵抗性。
    • 優點: 安全性基於相對簡單且經過充分研究的密碼學原語,被認為是保守且安全的。
    • 缺點: 通常會產生較大的簽章大小,且可能是帶狀態的 (stateful),需要仔細管理狀態以保證安全性。
    • NIST 標準:
      • 數位簽章演算法: SPHINCS+
  3. 基於碼 (Code-based Cryptography):

    • 數學難題: 基於糾錯碼理論中的困難問題,例如解碼一般線性碼 (Decoding of General Linear Codes)。
    • 優點: 歷史悠久,被認為是抵抗量子攻擊的有力候選者。
    • 缺點: 通常會產生非常大的公鑰。
    • NIST 標準:
      • 金鑰封裝機制: Classic McEliece (在第三輪被選中)
  4. 基於多變量多項式 (Multivariate Polynomial Cryptography):

    • 數學難題: 基於求解多個變數的多項式方程組的困難性。
    • 優點: 在簽章方案方面可能具有較小的簽章大小。
    • 缺點: 安全性分析較為複雜,容易受到結構性攻擊,且金鑰大小通常較大。
    • NIST 第三輪候選方案:
      • 數位簽章演算法: FALCON, Rainbow (Rainbow 未被選為最終標準)
      • 金鑰封裝機制: GeMSS (在第三輪被淘汰)
  5. 基於同源加密 (Isogeny-based Cryptography):

    • 數學難題: 基於橢圓曲線之間的同源關係的困難性。
    • 優點: 可能產生較小的金鑰大小。
    • 缺點: 相對較新,安全性分析仍在發展中,且效率可能不如其他方案。
    • NIST 第三輪候選方案:
      • 金鑰封裝機制: SIKE (Supersingular Isogeny Key Encapsulation) - 在標準化過程中發現嚴重漏洞,已被排除
      • 金鑰封裝機制: Bike, FrodoKEM, HQC (仍在考慮中)

後量子密碼學的挑戰:

  • 安全性分析: 由於這些演算法相對較新,對其安全性的深入分析仍在進行中。需要仔細研究其抵抗經典和量子攻擊的能力。
  • 效率: 與當前使用的橢圓曲線密碼學相比,一些後量子加密演算法在金鑰大小、簽章大小或運算速度方面可能存在劣勢。需要在安全性、效率和實用性之間取得平衡。
  • 標準化: NIST 的標準化工作對於推動後量子密碼學的廣泛採用至關重要。
  • 遷移: 從現有的加密體系平穩過渡到後量子加密體系是一個複雜的過程,需要仔細規劃和部署。

總結:

後量子密碼學是密碼學領域一個至關重要的研究方向。隨著量子電腦技術的發展,開發和部署安全的後量子加密演算法對於保護未來的數位資訊安全至關重要。NIST 的標準化競賽正在推動這一領域的發展,並有望在不久的將來產生一套可靠的後量子加密標準。了解這些新的加密技術對於技術人員和決策者來說都變得越來越重要。

2025年4月1日 星期二

Raspberry Pi AI Kit 開發套件 Hailo-8L 介紹

 

Raspberry Pi AI Kit 開發套件 Hailo-8L 介紹

Raspberry Pi AI Kit 開發套件與 Hailo-8™ AI 加速器結合,旨在讓任何人都能輕鬆探索 AI 和機器學習的應用。這是一個強大的組合,讓您可以在 Raspberry Pi 上構建和部署智能應用,並利用 Hailo-8™ 提升效能。

套件內容:

  • Raspberry Pi 4 Model B (4GB): 強大的單板電腦,適合運行 AI 應用。
  • Hailo-8™ AI 加速器: 一款專為邊緣設備設計的高效能 AI 加速器。它能顯著提升機器學習模型的推理速度和能效。
  • Hailo-8 專用適配器板: 將 Hailo-8 與 Raspberry Pi 相連接,確保穩定的供電和數據傳輸。
  • 鏡頭模組: 適用於視覺 AI 應用,例如物件偵測、圖像分類等。
  • 麥克風: 適用於語音 AI 應用,例如語音辨識、自然語言處理等。
  • USB 隨身碟: 包含軟體、範例程式碼和教學文件。

核心優點:

  • 邊緣 AI 強大效能: Hailo-8™ 加速器能顯著提升 AI 推理速度,即使在邊緣設備上也能實現即時 AI 應用。
  • 易於使用: 套件包含所有必要的軟體和範例程式碼,方便使用者快速上手。
  • 完整生態系統: 可以利用 Raspberry Pi 的龐大社群和資源,快速解決問題和開發應用。
  • 降低成本: 相比於其他 AI 開發平台,Raspberry Pi AI Kit 提供了更高的性價比。

應用場景:

  • 視覺 AI: 物件偵測、圖像分類、人臉辨識、姿態估計等。
  • 語音 AI: 語音辨識、語音合成、自然語言處理等。
  • 機器人應用: 機器人導航、環境感知、自主決策等。
  • 智慧家庭: 智能監控、自動化控制、個人助理等。
  • 工業自動化: 品質檢測、異常檢測、流程優化等。

學習資源:

總而言之,Raspberry Pi AI Kit 與 Hailo-8L 的組合為 AI 開發者和愛好者提供了一個強大、易用且經濟實惠的平台,可以探索和實現各種 AI 應用。

SLAM 架構 + 安裝指南 + IMU 模組接線圖(針對 Raspberry Pi 5 + Hailo-8L + Webcam)

 從這三個部分著手:


✅ SLAM 架構 + 安裝指南 + IMU 模組接線圖(針對 Raspberry Pi 5 + Hailo-8L + Webcam)


🔷 一、SLAM 架構設計(以 VINS-Fusion 為例)

這裡採用 VINS-Fusion,支援視覺 + IMU 結合,適合地面型移動機器人。

🧠 模組分層圖:

css
[Webcam] + [IMU模組][VINS-Fusion 節點][定位 + 地圖建立][ROS RViz 視覺化][導航系統整合]

🔧 二、安裝與設定流程(Ubuntu 20.04 + ROS Noetic)

1️⃣ 安裝 ROS Noetic(一次性)

bash
sudo apt update sudo apt install ros-noetic-desktop-full

設定 ROS 環境變數:

bash
echo "source /opt/ros/noetic/setup.bash" >> ~/.bashrc source ~/.bashrc

2️⃣ 建立工作區 & 安裝 VINS-Fusion

bash
mkdir -p ~/catkin_ws/src cd ~/catkin_ws/src git clone https://github.com/HKUST-Aerial-Robotics/VINS-Fusion.git cd .. catkin_make -j4

若遇 OpenCV 相容性問題,可以限定版本(如 4.2)。


3️⃣ 安裝相依模組(建議)

bash
sudo apt install ros-noetic-cv-bridge ros-noetic-tf sudo apt install libeigen3-dev libsuitesparse-dev

4️⃣ 安裝 Kalibr(相機 + IMU 校正工具)

Kalibr 能產生你需要的 .yaml 相機+IMU 設定檔:

bash
sudo apt install python3-pip pip3 install numpy scipy # 建議使用 Docker 安裝 Kalibr 或 Ubuntu 18.04 虛擬機

5️⃣ 使用範例設定檔啟動

bash
roslaunch vins vins_rviz.launch

你將看到 RViz 中的實時 SLAM 與地圖建立。


🔌 三、IMU 模組接線(以 ICM-20948 為例)

ICM-20948 腳位Raspberry Pi 5 腳位
VCC(3.3V)Pin 1(3.3V)
GNDPin 6(GND)
SDAPin 3(GPIO 2, SDA)
SCLPin 5(GPIO 3, SCL)

👉 I²C 方式連接最簡單!

開啟 I²C 功能:

bash
sudo raspi-config # Interfacing Options → I2C → Enable

檢查是否偵測到 IMU:

bash
sudo i2cdetect -y 1

🔍 驅動安裝(ICM-20948)

你可使用 SparkFun 提供的 Python 套件或自行寫程式:

bash
git clone https://github.com/sparkfun/Qwiic_ICM20948_Py.git cd Qwiic_ICM20948_Py python3 setup.py install

取得即時 IMU 資料:

python
import qwiic_icm20948 imu = qwiic_icm20948.QwiicIcm20948() imu.begin() while True: imu.getAgmt() print("Accel X: ", imu.axRaw)

🎯 下一步建議

  1. 先完成 IMU 驅動與 webcam 影像擷取

  2. 使用 Kalibr 對 IMU + Camera 做同步與標定(會給你 .yaml

  3. 修改 VINS-Fusion 配置檔,執行 vins_estimator

  4. 查看 RViz 中即時地圖與定位


如果你想要我幫你:

  • 寫 IMU + Camera 的 ROS 節點程式碼(發送 /camera/image_raw/imu/data

  • 幫你建立 .yaml 標定檔格式模板

  • 寫完整的 launch 檔讓你一鍵啟動 SLAM


需要我先幫你寫一個 ROS node 把 IMU 和 webcam 整合送出嗎?

IMU 整合進你的自走避障車中並建立 SLAM(同時定位與地圖建立)系統

 IMU 整合進你的自走避障車中並建立 SLAM(同時定位與地圖建立)系統,能讓車子在未知環境中自行探索、記錄地圖並持續定位自己,這是進階自走車的關鍵能力 🔥


📍 SLAM 簡介(適用地面車)

SLAM(Simultaneous Localization and Mapping)需要以下資訊來源:

  1. 視覺資訊(camera):了解環境樣貌

  2. 慣性感測器(IMU):推估動態與方向(dead reckoning)

  3. 有時還搭配:輪速編碼器(Wheel encoder)或雷達(LiDAR)


🧩 系統架構(視覺 + IMU SLAM)

css
[Webcam] + [IMU(陀螺儀+加速度)][Visual-Inertial SLAM (如 VINS-Fusion / ORB-SLAM3)][地圖建立 + 即時定位][導航 + 控制避障]

🔧 建議使用的 SLAM 工具與架構

工具支援功能相容性
ORB-SLAM3支援 Mono, Stereo, Visual-Inertial SLAM(VIO)✅ Raspberry Pi 5(需優化)
VINS-Fusion專注於 IMU + Camera 融合,支援 GPS 整合✅ Hailo 不影響相容
RTAB-Map圖形化建圖 + SLAM,可用於 ROS✅ 相容 Raspberry Pi
Kimera / ROVIOMIT/ETHZ 的進階研究用 SLAM⚠️ 適合高手、需強算力

📦 必備元件與套件

📌 感測器建議

感測器功能推薦
MPU6050 / ICM-20948 / BNO055IMU(三軸加速度 + 陀螺儀)✅ 小車用
CSI 攝影機 / USB Webcam畫質穩定、低延遲✅ 建議使用

🛠️ 開發流程(以 VINS-Fusion 為例)

1️⃣ 安裝相依套件(在 Pi 上)

bash
sudo apt update sudo apt install ros-noetic-desktop-full cd ~/catkin_ws/src git clone https://github.com/HKUST-Aerial-Robotics/VINS-Fusion.git cd .. catkin_make

✅ 建議使用 Ubuntu 20.04 + ROS Noetic


2️⃣ 校正相機與 IMU

  • 安裝 Kalibr 做 IMU+camera 時間同步與內參標定

  • 輸出 YAML 檔提供給 VINS-Fusion 使用


3️⃣ 建立啟動檔

建立 vins_rviz.launch.yaml 設定檔:

xml
<node pkg="vins" type="vins_node" output="screen" name="vins_estimator" args="$(find vins)/config/euroc/euroc.yaml" />

4️⃣ 執行 SLAM 並顯示地圖

bash
roslaunch vins vins_rviz.launch rosrun vins pose_graph rviz

你將能看到即時路徑、定位與地圖構建。


🔁 Hailo 加速器搭配 SLAM?

Hailo-8L 負責前段影像辨識(例如物件標記、避障),不影響 SLAM 的執行,可與 SLAM 並行運作於 Raspberry Pi 上,建議將推論與 SLAM 執行分開 thread 或 node 管理。


📌 小結:建置 SLAM 系統你需要...

項目狀態
✅ 有鏡頭(webcam)✔️
✅ 有 IMU 感測器✔️ 建議使用 ICM-20948
✅ 有運算核心(Pi5 + Hailo)✔️
✅ 選好 SLAM 框架(VINS / ORB-SLAM3)可選
🔧 相機與 IMU 時間同步(Kalibr)建議執行
🔁 整合模型推論 + SLAM + 控制多執行緒或 ROS

如果你想一步步建置這個系統,我可以幫你:

  • 找 IMU 模組接線方式(I²C / SPI)

  • 提供 ORB-SLAM3 / VINS-Fusion Raspberry Pi 編譯教學

  • 幫你產生相機與 IMU 標定設定檔

  • 整合 Hailo 推論與 SLAM 在同一台車上

Raspberry Pi 5 + Hailo-8L + webcam 來建置自走避障車

 使用 Raspberry Pi 5 + Hailo-8L + webcam 來建置自走避障車,是一個結合邊緣 AI 推論與機器控制的完整專案,非常有挑戰性也很實用。我可以幫你規劃整個開發架構與技術流程,以下是詳細介紹:


🧠 專案核心架構概觀

css
[Webcam][Raspberry Pi 5 + Hailo-8L][AI 模型推論][避障邏輯][馬達控制板][驅動馬達]

📦 建議使用的硬體

元件建議說明
Raspberry Pi 5運行主控邏輯與 AI 推論
Hailo-8L AI 加速器執行即時影像辨識(物件偵測、路徑判斷)
Webcam / CSI 攝影機擷取前方影像
馬達驅動板(L298N / PCA9685)控制雙輪或履帶馬達
DC馬達 / 伺服馬達作為行走與轉向裝置
電池供電模組提供移動時所需動力

🧠 軟體系統架構

1️⃣ AI 模型部分(避障核心)

  • 模型建議:

    • ✅ 使用 YOLOv5s / YOLOv6 / NanoDet(有支援 Hailo)

    • ✅ 任務:物件偵測 + 區域距離估計

    • ✅ 可加強:路面/通道分割(使用 MobileUNet)

  • Hailo 工作流程:

    1. 使用官方 Model Zoo 模型 (.hef)

    2. 實作推論流程:

      python
      from hailo_platform import HailoModel model = HailoModel("yolov5s.hef") preds = model.infer_from_frame(frame)

2️⃣ Raspberry Pi 控制層

  • 程式語言:Python

  • 使用模組:

    • opencv-python:擷取與處理 webcam 影像

    • RPi.GPIO / gpiozero / pigpio:控制馬達

    • hailo_platform.py:模型推論

    • threading:推論與控制並行執行


🧩 邏輯範例(簡化版)

python
if obstacle_ahead(): stop() turn_left() # 或右 else: go_forward()

可以依照物件 bounding box 的座標與大小判斷是否前方有障礙物、距離近遠。


📹 相機處理

使用 OpenCV 擷取畫面:

python
import cv2 cap = cv2.VideoCapture(0) while True: ret, frame = cap.read() preds = model.infer_from_frame(frame) # Hailo 推論 process(preds)

🛠️ 控制馬達示意

python
from gpiozero import Motor motor = Motor(forward=17, backward=18) motor.forward() # 向前 motor.backward() # 後退 motor.stop()

🎯 開發步驟建議

  1. ✅ 測試 webcam + OpenCV 擷取影像

  2. ✅ 安裝並驗證 Hailo 推論流程

  3. ✅ 模擬模型輸出結果邏輯(可先用 fake data)

  4. ✅ 整合馬達控制與避障邏輯

  5. ✅ 加入 threading / asyncio 提高同步效率

  6. ✅ 車體整合與實測校調


如果你需要我幫你:

  • 整理 YOLO 模型在 Hailo 上的部署範例

  • 提供完整 Python 控制架構範例

  • 幫你模擬避障邏輯或做影像區域分析

  • 教你怎麼從模型 zoo 抓出合用的 .hef

Raspberry Pi AI Kit(搭載 Hailo-8L 加速器) 

 當你使用 Raspberry Pi AI Kit(搭載 Hailo-8L 加速器) 進行開發時,可以配合以下工具與開發流程,讓你能快速上手並部署 AI 模型進行推論:


🔧 配合的套件工具

📦 軟體工具與套件

工具/套件功能說明
Hailo SDK(HailoRT)官方提供的推論引擎與工具包,支援模型部署與推理。
Hailo Model Zoo提供預先訓練好、可直接部署於 Hailo-8L 上的模型(YOLOv5、ResNet 等)。
TensorFlow / PyTorch / ONNX可用於模型訓練與匯出後轉換為 Hailo 可用格式。
Hailo TAPPAS(工具與示範程式)包含樣板專案、視覺應用 GUI、與即時推理範例。
Hailo CLI 工具指令列工具,協助轉換模型、效能分析與模型部署。
OpenCV / GStreamer常用於相機影像擷取與處理。
Raspberry Pi OS (64-bit)建議搭配新版 Raspberry Pi OS (bookworm),以相容 M.2 HAT+ 與 Hailo 驅動程式。

🧭 開發與操作流程

這裡是一個典型的 開發→部署→推論 的操作流程:

1️⃣ 環境準備

  1. 安裝 Raspberry Pi OS(64-bit)到 SD 卡。

  2. 安裝 Raspberry Pi AI Kit(M.2 HAT+ + Hailo-8L),使用 M.2 插槽並固定。

  3. 安裝 Hailo 提供的驅動程式與 SDK:

    bash
    wget https://hailo.ai/downloads/hailo-sdk.sh chmod +x hailo-sdk.sh ./hailo-sdk.sh
  4. 確認裝置是否識別:

    bash
    hailortcli device-info

2️⃣ 模型開發與轉換

  1. 使用 TensorFlow / PyTorch 訓練模型

  2. 匯出為 ONNX 格式或直接使用 Hailo Model Zoo 中的模型。

  3. 使用 Hailo 提供的 hailomakehailo_model_compile 工具將模型轉為 Hailo 可用格式(HEF 檔):

    bash
    hailomake yolov5s

3️⃣ 模型部署與推論

  1. .hef 模型部署至裝置。

  2. 使用 C++/Python API 或 hailortcli 執行推論。

  3. 若為視覺應用,可透過 GStreamer 結合相機模組做即時預測:

    bash
    python3 apps/yolo_inference.py --hef yolov5.hef

4️⃣ 效能優化與測試

  • 使用 hailortcli benchmark 測試模型推論效能。

  • 調整 quantization、batch size、輸入解析度以優化效能。


✅ 快速上手建議(新手)

  • 選擇 Hailo Model Zoo 提供的模型,先不用自己訓練。

  • 使用官方範例專案 tappas(如 YOLOv5)直接體驗影像推論。

  • 熟悉後再進行自定模型的轉換與部署。


如果你有特定應用(例如人臉辨識、姿勢估計或物件追蹤),

可以幫你找合適的模型和範例操作流程喔!


TinyML加持MCU也能開始玩電腦視覺了

 說到使用小型邊緣智能(Edge AI)開發板來完成

影像分類(Image Classification)」或

物件偵測(Object Detection)」,

大概第一個會想到的是樹莓派加Intel神經運算棒(NCS2)或者Nvidia Jetson Nano系列或者Google Coral吧?

但如果想在單晶片(MCU)上玩影像處理甚至TinyML影像辨識有沒有機會呢?

先說結論當然是可以,舉例來說單板微電腦(如Arm Cortex-A系列)就像機車,而單晶片(如Arm Cortex-M系列)就像腳踏車,同樣是提供移動服務,但要讓腳踏車跑得像機車那麼快,可能人會先累垮,甚至跑不贏。

不過如果只是要到500公尺外的超市買東西,那這兩種交通工具差別可能就沒這麼大。因此在使用MCU進行電腦視覺前要先確認好需求,以免有過多的幻想,無法達成工作目標。

接下來的文章將為大家介紹有自帶攝影機模組或有保留擴充界面的MCU TinyML開發板,方便想從事微型電腦視覺AI應用的朋友有更完整的選擇。

1. 在單晶片上運行電腦視覺應用

在電腦視覺中,影像辨識所需耗費的算力是非常龐大的,在加速處理的思路上可分為從硬體及軟體(算法、模型)下手,大致可分為下列幾種作法:

  • 降低影像色彩數及解析度
  • 降低每秒處理影格數(Frames, FPS)
  • 增加晶片工作時脈(Clock, MHz)
  • 增加單位時間平行運算能力(如SIMD, Vector指令集、多核)
  • 選擇複雜度(如層數、寬度、網路結構)較低的模型
  • 對模型進行推論速度、儲存空間、記憶體使用優化(量化、減枝、壓縮、蒸餾等)

在前一篇「MCU攜手NPU讓tinyML邁向新里程碑」中已有幫大家介紹過各種MCU+NPU的硬體加速計算方式,但由於MCU儲存程式碼、模型網路結構、權重參數的FLASH容量及計算過程所需的SRAM記憶體容量非常少,所以第一件事是要把模型縮到塞得進MCU中,才有資格談模型加速運算及維持推論精度,尤其在電腦視覺應用中更是首先必須要解決的問題。

傳統AIoT的應用開發,MCU重點在擷取多種感測器信號及加上通訊將資料傳到雲端,並不直接在MCU上進行AI相關運算,所以工作時脈不用太快,只要數十MHz就足夠,而Flash、SRAM有個數KB到數十KB就夠用了,甚至連像ARM MBED或RTOS這樣的MCU作業系統都不用。

隨著微型攝影機模組(Camera Module)的普及,越來越多的有線、無線網路攝影機(IP Cam)方案被提出,AIoT的應用也開始加入了影像監控的領域。為解決影像基本處理及編解碼,因此單晶片也開始提高工作時脈到數百MHz、增加Flash、SRAM到數百KB到數MB,甚至加入數位信號處理器(Digital Signal Processor, DSP),使得有足夠能力可以運作微型作業系統或MicroPython這類的開發環境。不過此時若想在擷取到的串流影音上進行AI相關應用時,幾乎都還是送回雲端處理。

最近隨著各種微型攝影機模組(如I/O Bus, MIPI, SPI界面)越來越容易取得,支援TinyML技術的硬體逐漸成熟,相關開發工具(如TensorFlow Lite for Microcontroller, CMSIS-NN)和平台(如Edge Impulse, SensiML)也逐漸普及,因此在沒有網路及雲端服務下,在MCU上直接跑微型電腦視覺AI應用也開始變得沒這麼困難。接下來就市售20款開發板分成三大類依序幫大家介紹,而開發工具、平台、模型優化等就留待下次再幫大家介紹。


引自 https://omnixri.medium.com/%E6%9C%89%E4%BA%86tinyml%E5%8A%A0%E6%8C%81mcu%E4%B9%9F%E8%83%BD%E9%96%8B%E5%A7%8B%E7%8E%A9%E9%9B%BB%E8%85%A6%E8%A6%96%E8%A6%BA%E4%BA%86-fd3f02192a39