アナログ・テック 技術コラム

NPUや産業用PC、エッジコンピューティング、エッジAI、生成AIに関する技術情報や実装の考え方、最新トピックをアナログ・テックの視点で発信します。

【Hailo実装シリーズ】 エッジAIを本気で動かすための実践Tips <第2回>

Hailo TAPPASとは何か?

— GStreamerパイプラインの構造と設計思想を整理する —


はじめに

前回は、Hailo-8がUbuntu環境で認識されない場合のトラブルシューティングを整理しました。

今回はその次の段階として、TAPPASの構造と設計思想を整理します。

デバイスが動作するようになったあと、多くのエンジニアが直面するのが次の疑問です。

  • hailonetとは何をしているのか

  • hailofilterはどこで後処理をしているのか

  • GStreamerの中でHailoはどの層を担っているのか

  • NVIDIA DeepStreamと何が違うのか

本記事では、TAPPASの構造を実際のパイプライン例を交えながら整理します。


1. TAPPASとは何か

TAPPAS(Template Applications and Pipelines Solution)は、Hailoが提供するGStreamerベースのビデオ解析フレームワークです。

主な特徴は以下の通りです。

  • GStreamerプラグインとして動作

  • 推論処理をNPUにオフロード

  • 後処理を柔軟にカスタマイズ可能

  • メタデータ中心設計

重要なのは、TAPPASは「すべてを内包する巨大なSDK」ではなく、GStreamerエレメント群として設計されている点です。


2. GStreamer全体構造の中での位置づけ

典型的な物体検出パイプライン例を見てみます。

hef-path および so-path は環境に合わせて置き換えてください。

 

 
 
gst-launch-1.0 v4l2src device=/dev/video0 ! \
videoconvert ! \
hailonet hef-path=yolov8m.hef ! \
hailofilter so-path=libyolo_post.so ! \
hailooverlay ! \
videoconvert ! \
fpsdisplaysink
 

処理の流れ:

  1. v4l2src:カメラ入力

  2. videoconvert:フォーマット変換

  3. hailonet:NPU推論

  4. hailofilter:後処理

  5. hailooverlay:描画

  6. fpsdisplaysink:表示

ここで重要なのは、推論と後処理が明確に分離されている点です。


3. hailonetの役割

hailonetは、HEF(Hailo Executable File)を読み込み、Hailo-8上で推論を実行するエレメントです。

役割はシンプルです。

  • 入力フレームを受け取る

  • NPUへ転送

  • 生の推論出力テンソルを返す

この段階では、まだ人間が理解できる検出結果にはなっていません。


4. hailofilterと後処理の思想

hailofilterは、推論出力テンソルを解析し、意味のある構造へ変換します。

例:

  • バウンディングボックス

  • クラスラベル

  • スコア

 
 
hailofilter so-path=libyolo_post.so
 

指定する .so が後処理ロジックです。

この設計のポイントは、

  • モデル変更時に後処理を差し替え可能

  • 独自ロジックをC++/Pythonで実装可能

  • 推論部とロジック部を分離できる

という柔軟性にあります。


5. Metadata中心設計

TAPPASは推論結果を「メタデータ」として管理します。

代表的な構造:

  • HailoDetection

  • HailoClassification

  • HailoROI

これは設計思想として重要です。

映像を直接加工するのではなく、映像に意味情報を付与する設計です。

この構造は、将来的な拡張や連携システムとの統合において有利に働きます。


6. マルチストリーム処理の考え方

複数カメラを扱う場合、以下のエレメントを使用します。

  • hailomuxer

  • hailoroundrobin

概念的な流れ:

  1. 複数ストリームを統合

  2. フレームを順次NPUへ投入

  3. メタデータを付与して各ストリームへ返却

NPUは単体でも、CPU側での並列デコード処理により複数入力に対応可能です。

実際の設計では、推論よりもデコードや描画がボトルネックになるケースがあります。

例として、環境によっては vaapidecodebin などのハードウェアデコードエレメントが利用可能です。ただし、利用可否はGPU・ドライバ・導入パッケージに依存します。環境に応じて適切なデコーダが選択されているか確認することが重要です。


7. NVIDIA DeepStreamとの設計思想の違い

DeepStreamはNVIDIAが提供する包括的なSDKです。

一方、TAPPASはGStreamerエレメント中心の設計です。

比較の観点:

項目 DeepStream TAPPAS
主な対象 GPU NPU
設計思想 包括的SDK モジュール分離型
拡張方法 NVIDIAスタック中心 GStreamerエレメント拡張

※補足:両者ともGStreamerを利用するケースがあります。ここでの比較は、開発体験や設計アプローチの違いという観点で整理しています。

優劣ではなく、設計思想の違いと捉えるのが適切です。


8. 実装時に理解すべきポイント

TAPPASを使う際に重要なのは以下です。

  • NPUはテンソルを返すだけである

  • 後処理設計が精度・性能に影響する

  • CPU側処理がボトルネックになり得る

  • メタデータ設計が拡張性を決める

単に「動くパイプライン」を構築するのではなく、

どの層がボトルネックになるか

を意識することが、安定したエッジAI設計につながります。


まとめ

TAPPASは単なる推論ツールではありません。

  • GStreamerベース

  • 推論と後処理の分離

  • メタデータ中心設計

  • モジュール的拡張性

という思想を持った設計です。

Hailoを本格的に活用するには、HEFを実行するだけでなく、この構造を理解することが重要です。

 

また、TAPPASの構造を理解したうえで実装を進めるには、まずデバイスが安定して動作していることが前提となります。

Ubuntu環境でHailo-8が認識されない場合の切り分け手順については、以下の記事で整理しています。

Hailo-8がUbuntuで認識しないときに確認すべき6つのポイント

シリーズを通して読むことで、セットアップからパイプライン設計までを一貫して理解できます。

 

TAPPAS構成を実際に評価・検証するには、Hailo-8搭載の評価環境が必要です。

開発用途や設置環境に応じた構成相談も可能です。
お気軽にお問い合わせください。

 

次回は、Python API(InferModel / VDevice)を用いた推論実装と、スケジューラ設計について整理します。

【Hailo実装シリーズ】 エッジAIを本気で動かすための実践Tips <第1回>

Hailo-8がUbuntuで認識しないときに確認すべき6つのポイント

— Ubuntu 22.04 / 24.04 環境でのトラブル切り分け —


はじめに

Hailo-8は最大26TOPSの推論性能を持つエッジAI向けNPUとして注目されています。
しかしUbuntu環境で導入する際、最初に直面するのが「デバイスが認識されない」という問題です。

  • hailortcli scan で何も表示されない

  • ドライバを入れたはずなのにロードされていない

  • カーネル更新後に突然動かなくなった

本記事では、Ubuntu 22.04 / 24.04 LTS環境を前提に、Hailo-8が認識されない場合の確認ポイントを、実際のコマンドと出力例を交えて整理します。

Linux中級者を想定し、基本操作の説明は省略します。


1. PCIeデバイスとして認識されているか確認する

まず確認すべきは、OSレベルでPCIeデバイスとして認識されているかどうかです。

 
lspci | grep -i hailo

正常な出力例:

 
01:00.0 Co-processor: Hailo Technologies Ltd. Hailo-8 AI Processor (rev 01)

何も表示されない場合は、以下を確認します。

  • BIOSで「Above 4G Decoding」が有効になっているか

  • PCIeスロットが無効化されていないか

  • 物理接続が正しいか

この段階で表示されない場合、ソフトウェアではなくハードウェア設定の問題である可能性が高くなります。


2. ドライバがロードされているか確認する

PCIeで認識されていても、カーネルモジュールがロードされていなければ利用できません。

 
lsmod | grep hailo_pci

正常例:

 
hailo_pci 45056 0

何も表示されない場合は、ドライバがロードされていない可能性があります。

次にランタイム通信を確認します。

 
hailortcli scan

正常例:

 
Device BDF: 0000:01:00.0

異常例:

 
No Hailo devices found

ここでデバイスが見つからない場合、ドライバ層またはSecure Bootの影響を疑います。


3. Secure Bootの状態を確認する

Secure Bootが有効な場合、署名されていないカーネルモジュールがロードされないことがあります。

確認コマンド:

 
mokutil --sb-state

mokutil が未インストールの場合:

 
sudo apt update sudo apt install mokutil

出力例:

 
SecureBoot enabled

Secure Bootが有効な場合、hailo_pci モジュールが拒否されている可能性があります。

対処方法:

  • BIOS設定でSecure Bootを無効化する

  • もしくはカーネルモジュールへ署名を行う(上級者向け)


4. カーネルヘッダー不足 / DKMSビルド失敗

Ubuntuのカーネル更新後に認識しなくなるケースは珍しくありません。

まずカーネルバージョンを確認します。

 
uname -r

次にヘッダーを確認・導入します。

 
sudo apt update sudo apt install build-essential linux-headers-$(uname -r)

dmesg でエラー確認:

 
dmesg | grep -i hailo

よくあるエラー例:

 
Error! Your kernel headers for kernel 6.5.0-15-generic cannot be found

その場合は、ドライバをクリーンインストールします。

 
sudo apt purge -y hailort-pcie-driver hailort sudo apt autoremove -y sudo rm -rf /etc/hailo sudo dpkg -i hailort_<version>_amd64.deb sudo dpkg -i hailort-pcie-driver_<version>_all.deb sudo reboot

再起動後:

 
hailortcli scan

で再確認します。


5. HAILO_RPC_FAILED / HAILO_TIMEOUT エラー

デバイスは認識されているが推論時にエラーが出る場合があります。

例:

 
HAILO_RPC_FAILED

または

 
HAILO_TIMEOUT

まずサービス状態を確認します。

 
systemctl status hailort.service

必要に応じて再起動します。

 
sudo systemctl restart hailort.service

6. 温度状態の確認

長時間稼働や高負荷状態では、保護機構により性能が抑制される場合があります。

 
hailortcli fw-control --temperature

出力例:

 
Temperature: 118°C

Hailo-8は高温時に保護動作が入る設計となっており、温度上昇によって性能が制限される場合があります。
冷却状態や筐体のエアフローも確認してください。


トラブル切り分けの基本フロー

Hailo-8が動作しない場合は、以下の順で確認します。

  1. lspci で物理認識確認

  2. lsmod | grep hailo_pci でドライバ確認

  3. hailortcli scan で通信確認

  4. Secure Boot確認

  5. カーネルヘッダー確認

  6. サービス状態確認

この順で確認することで、多くの問題は論理的に切り分けることができます。


まとめ

Hailo-8導入時のトラブルの多くは、以下に集約されます。

  • BIOS設定(Above 4G Decoding)

  • Secure Boot

  • カーネル更新後のヘッダー不足

  • DKMSビルド失敗

  • サービス停止

  • 温度上昇

エッジAIの実装では、推論コード以前に、OS・ドライバ・ハードウェアの整合性を理解することが重要です。

 

TAPPAS構成を実際に評価・検証するには、Hailo-8搭載の評価環境が必要です。

 

次回は、HailoのTAPPASフレームワークの構造を分解し、GStreamerパイプライン設計の考え方を整理します。

クラウドAIとエッジAIはどう使い分けるべきか 〜産業用途での現実的な設計判断〜

エッジAI PCが注目される背景には、
クラウドAIでは対応しきれない現場要件」が確実に存在します。

一方で、
「すべてをエッジで処理すべき」という話でもありません。

本記事では、
産業用途において クラウドAIとエッジAIをどう使い分けるべきか を、
技術・運用・設計の観点から整理します。


クラウドAIが得意とする領域

まず、クラウドAIの強みを整理します。

  • 大規模データの集約・分析

  • 学習・再学習(モデル更新)

  • 複数拠点を横断した統計処理

  • リソースの柔軟なスケール

これらは、
ネットワーク帯域・遅延・通信コストをある程度許容できる環境で、
非常に高い効果を発揮します。

特に「結果が即時でなくても良い分析系処理」は、
クラウドAIの得意分野です。


エッジAIが求められる理由

一方、産業現場では次のような条件が頻繁に登場します。

  • カメラ映像やセンサーデータを常時取得している

  • 数十ms〜数百ms単位のリアルタイム性が求められる

  • ネットワークが不安定、または閉域である

  • 通信量・通信コストを抑えたい

  • データを外部に出せない(セキュリティ・規制)

このような条件下では、
「その場で判断できる」エッジAI が現実的な選択肢になります。


使い分けの基本的な考え方

クラウドか、エッジか、という二択ではなく、
次のような役割分担が実務では自然です。

  • エッジ

    • 推論(Inference)

    • 即時制御・判定

    • データの一次処理・間引き

  • クラウド

    • 学習・再学習

    • 全体傾向の分析

    • モデル管理・配布

つまり、
「判断は現場、知見はクラウド
という分業構造です。

エッジAIとクラウドAIの役割分担イメージ

 


設計時に考えるべき判断軸

クラウド/エッジの使い分けは、
次のような質問に答えていくことで整理できます。

  • 判断結果は、何ms以内に必要か

  • ネットワーク断が起きた場合、止まってよいか

  • データは外部に出して問題ないか

  • 処理対象データ量はどの程度か

  • 現場側での保守・更新は可能か

これらに「厳しい条件」が多いほど、
エッジ側の比重が高くなります。


よくある誤解

よくあるのが、

  • クラウドAIは古い」

  • 「エッジAIのほうが先進的」

といった単純化です。

実際には、
どちらも不可欠で、役割が違う だけです。

設計初期にこの整理ができていないと、
後から構成変更が難しくなり、
結果としてコストや運用負荷が増えるケースも少なくありません。


まとめ

  • クラウドAIとエッジAIは対立概念ではない

  • 即時性・安定性・現場完結性が求められる処理はエッジ向き

  • 学習・全体分析・統合管理はクラウド向き

  • 重要なのは「どこで何を判断するか」を先に決めること

エッジAI PCの検討は、
単なるスペック比較ではなく、
システム全体の役割分担設計 から始める必要があります。

エッジAI用途でPCを選定する際に見落としがちなポイント

性能比較だけでは判断できない理由

エッジAIの導入を検討する際、
CPUやGPU、NPUといった処理性能に目が向きがちですが、
実運用に入ってから課題が表面化するケースも少なくありません。

本記事では、エッジAI用途でPCを選定する際に、
性能表だけでは見えにくい「見落とされがちなポイント」を整理します。


性能だけで選ぶと起きやすい問題

エッジAI PCの検討では、

  • 処理性能

  • AI推論速度

  • 対応モデル

といった数値が、どうしても比較の中心になります。

しかし、実際の現場では、

  • 思ったより熱がこもる

  • 長時間稼働で不安定になる

  • 設置後の運用が想定より大変

といった課題が後から出てくることがあります。

これは、「性能以外の前提条件」 が十分に整理されていないことが原因であるケースが多く見られます。

エッジAI選定の氷山モデル

設置環境を前提に考える

エッジAI PCは、データセンターではなく「現場」に設置されることが前提です。

そのため、

  • 温度・湿度

  • 粉塵や油煙

  • 振動や衝撃

といった環境条件を無視することはできません。

特に、ファンレス設計を採用する場合は、
放熱経路や設置方向によって性能や安定性が大きく左右されます。

カタログ上の動作温度だけでなく、
「実際に置かれる場所」を具体的に想像すること が重要です。


消費電力と電源条件の確認

エッジAI用途では、電源条件が制約になるケースも少なくありません。

  • 利用できる電源容量

  • 24時間稼働か、間欠稼働か

  • 停電時の挙動

といった点は、事前に整理しておく必要があります。

AIアクセラレータを搭載したPCは、
ピーク時に想定以上の電力を消費することもあります。

「通常時は問題ないが、特定の処理が重なると不安定になる」
といった事象は、現場では珍しくありません。


ソフトウェア・開発環境の相性

ハードウェア選定と同時に考えるべきなのが、
ソフトウェアや開発環境との相性です。

  • 利用予定のフレームワーク

  • OSやドライバの対応状況

  • モデル変換や最適化の手間

これらは、性能表からは見えにくい要素です。

特に、将来的なモデル変更やアップデートを想定している場合、
「今動くか」だけでなく「今後も対応できるか」 という視点が重要になります。


長期運用を前提とした視点

産業用途では、
PCを数か月で入れ替えることはほとんどありません。

  • 同一構成を長期間使えるか

  • 部品供給は継続されるか

  • 障害発生時の対応が現実的か

といった点は、
初期検討段階で意識しておくべきポイントです。

短期的な性能やコストだけでなく、
運用期間全体を通した安定性 を考える必要があります。


「万能な構成」は存在しない

エッジAI PCの選定では、
「これを選べば間違いない」という万能な答えはありません。

重要なのは、

  • 何を処理したいのか

  • どこに設置されるのか

  • どのくらいの期間、どのように使うのか

といった前提条件を整理し、
それに合った構成を選ぶことです。

CPU、GPU、NPUの組み合わせや、
筐体・電源・冷却方式などは、
用途によって最適解が変わります。


おわりに

エッジAI用途でPCを選定する際は、
処理性能だけでなく、設置環境や運用条件を含めた
全体像を見て判断すること が重要です。

本コラムでは、今後も
エッジAIや産業用途PCの検討・実装において
役立つ視点を整理していく予定です。

次回は、エッジAIとクラウドをどのように使い分けるべきか、
システム構成の考え方について取り上げる予定です。

NPUとは何か?CPU・GPUとの違いをエッジAIの視点で整理する

エッジAIで注目されるNPUという選択肢

エッジAIの導入が進む中で、「NPU(Neural Processing Unit)」という言葉を耳にする機会が増えてきました。
一方で、CPUやGPUとの違いが分かりにくく、どのような用途でNPUが適しているのか判断に迷うケースも少なくありません。

本記事では、特定のメーカーや製品に依存せず、エッジAIという視点から見たNPUの位置づけを整理します。


エッジAIを支える処理デバイスの選択肢

エッジAIでは、センサーやカメラから取得したデータを現場で処理する必要があります。
その際に利用される主な演算デバイスは、以下の3つです。

それぞれ得意分野が異なり、用途に応じた使い分けが重要になります。


CPU:制御と汎用処理の中心

CPUは、PCや組込み機器における中核的な存在です。
OSの制御やアプリケーション処理、周辺機器との連携など、汎用的な処理を担います。

エッジAIにおいても、

  • システム全体の制御

  • AI処理前後のデータ整理

  • 通信やログ処理

といった役割で不可欠です。

一方で、ニューラルネットワークの推論処理をCPUのみで行う場合、
処理性能や消費電力の面で制約が出やすいという側面もあります。


GPU:高い並列処理性能を活かしたAI処理

GPUは、多数の演算を同時に処理できる並列処理性能を強みとしています。
画像処理やディープラーニングの分野では、長く活用されてきました。

エッジAIにおいても、

  • 高解像度画像の処理

  • 複雑なモデルの推論

  • 複数ストリームの同時処理

といった用途では有効です。

ただし、GPUは一般的に

  • 消費電力が大きい

  • 発熱が大きい

という特性があり、
設置環境や筐体設計に制約が出る場合があります。


NPU:AI推論に特化した演算ユニット

NPUは、ニューラルネットワークの推論処理に特化して設計された演算ユニットです。
特定の計算パターンに最適化されているため、

  • 消費電力あたりの処理効率が高い

  • 発熱を抑えやすい

といった特徴があります。

エッジAI用途では、

といった制約があるケースも多く、
NPUの効率の良さが活きる場面が増えています。


エッジAIでNPUが注目される理由

エッジ環境では、クラウドと異なり、リソースに制限があります。
そのため、単純な処理性能だけでなく、

  • 消費電力

  • 熱設計

  • 長時間安定稼働

といった要素が重要になります。

NPUは、AI推論に処理を特化することで、
これらの要件をバランスよく満たしやすいという点で注目されています。


CPU・GPU・NPUは「置き換え」ではなく「役割分担」

ここで重要なのは、
NPUがCPUやGPUを完全に置き換える存在ではないという点です。

実際のエッジAIシステムでは、

  • CPU:制御・汎用処理

  • GPU:高負荷・柔軟性が必要な処理

  • NPU:効率重視のAI推論処理

といった形で、役割分担されるケースが一般的です。

どの構成が最適かは、

  • 処理内容

  • モデルの特性

  • 設置環境

によって変わります。


エッジAI導入時に考えるべきポイント

NPUを含むAIアクセラレータを選定する際には、

  • 処理性能だけでなく、消費電力や熱

  • ソフトウェア開発環境やツール

  • 長期供給や保守性

といった観点も考慮する必要があります。

エッジAIでは、
「動くかどうか」ではなく
「現場で使い続けられるか」 が重要になります。


おわりに

NPUは、エッジAIにおける有力な選択肢の一つですが、
万能な存在ではありません。

CPUやGPUと組み合わせながら、
用途や環境に応じた最適な構成を考えることが、
エッジAIシステムを安定して運用するためのポイントになります。

次回は、エッジAI用途でPCを選定する際に見落とされがちなポイントについて、
もう少し実務寄りの視点から整理していく予定です。

なぜ今、産業用途で「エッジAI PC」が求められているのか

産業用途でAI活用が進む背景

近年、「エッジAI」「AI PC」「オンデバイスAI」といった言葉を目にする機会が急激に増えています。
一方で、産業用途においては「本当に今、エッジAIが必要なのか」「クラウドAIでは不十分なのか」といった疑問を持たれている方も多いのではないでしょうか。

本記事では、産業用途という観点から、なぜ今あらためて「エッジAI PC」が注目されているのか、その背景を整理していきます。


産業用途におけるAI活用の変化

産業分野でAIが使われ始めた当初、多くのシステムはクラウドを前提として設計されていました。
センサーやカメラで取得したデータをクラウドに送信し、そこで解析・判断を行うという構成です。

この方式は、以下のような点で有効でした。

・高性能な計算資源を自前で用意する必要がない
・AIモデルの更新や管理がしやすい
・小規模なPoCを短期間で始められる

しかし、実運用が進むにつれて、産業用途ならではの課題も徐々に顕在化してきました。


クラウド前提設計が抱える現場の課題

現場にAIを本格導入する段階になると、次のような問題に直面するケースが少なくありません。

まず、通信の問題です。
工場や屋外設備、インフラ施設などでは、常に安定したネットワークが確保できるとは限りません。
通信遅延や瞬断がそのままシステム停止や誤判定につながるリスクもあります。

次に、レイテンシの問題です。
画像認識や異常検知など、即時性が求められる用途では、クラウド往復の遅延が許容できない場面が増えてきました。

さらに、データ量とコストの問題もあります。
高解像度の映像データを常時クラウドに送信する構成は、通信コスト・クラウド利用料の両面で負担が大きくなります。

これらの課題が積み重なり、「現場で処理を完結させたい」というニーズが強まっていきました。


エッジAIという考え方

こうした背景から注目されているのが「エッジAI」です。
エッジAIとは、データをクラウドに送る前段階、もしくは送らずに、現場側のデバイスでAI処理を行う考え方を指します。

エッジ側で処理を行うことで、

・通信環境に依存しにくい
・リアルタイム性を確保しやすい
・不要なデータ転送を減らせる

といったメリットが得られます。

そして、このエッジAIを実装するための中核となる存在が「エッジAI PC」です。


なぜ「PC」なのか

エッジAIというと、組込み機器や専用ハードウェアを想像される方も多いかもしれません。
しかし近年では、PCをベースとしたエッジAI構成が増えています。

 

現場設置を前提としたエッジAI PCの一例

その理由の一つは、柔軟性です。
PCであれば、OSやミドルウェア、開発環境の選択肢が広く、既存のソフトウェア資産も活かしやすくなります。

また、AIアクセラレータ(GPUやNPUなど)を組み合わせることで、用途に応じた性能設計が可能です。
モデル変更や処理内容の拡張にも比較的対応しやすい点は、長期運用を前提とする産業用途では重要な要素です。

さらに、保守・運用の観点でも、PCベースの方が現場に受け入れられやすいケースが多く見られます。


消費者向け「AI PC」と産業用途の違い

最近では、一般向けPC市場でも「AI PC」という言葉が使われるようになっています。
ただし、産業用途で求められるエッジAI PCは、これらとは前提条件が大きく異なります。

産業用途では、

・長時間連続稼働
・温度、粉塵、振動などの環境条件
・設置スペースや電源条件の制約
・製品ライフサイクルの長さ

といった要件を考慮する必要があります。

単にAI処理ができるだけではなく、「現場で安定して使い続けられること」が最も重要になります。


これからのエッジAI PCに求められるもの

今後、産業用途におけるエッジAI PCには、次のような視点がますます求められていくと考えられます。

・用途に応じたAI処理性能の選択肢
・現場環境を前提とした筐体・設計
・長期供給と保守を見据えた構成
クラウドとエッジを適切に使い分ける設計思想

エッジAI PCは、単なる「高性能なPC」ではなく、現場とAIをつなぐための基盤として位置づけられ始めています。


おわりに

エッジAI PCが注目されている背景には、技術トレンドだけでなく、現場で積み重ねられてきた課題と試行錯誤があります。

本コラムでは、こうした技術背景や設計の考え方、実装時の注意点などを、今後も順次取り上げていく予定です。

次回は、エッジAI PCを構成する要素の一つである「NPU」について、CPUやGPUとの違いを整理していきます。