モノのインターネット (IoT) デバイスとエッジ コンピューティング機能を組み合わせる企業が増えるにつれ、人工知能 (AI) をどのように使用してこれらのアプリケーションを最適化できるかについて、人々の関心が高まっています。ここでは、考えさせられる可能性をいくつか紹介します。
テクノロジー研究者は、エッジ デプロイされた IoT のパフォーマンスを向上させる方法を研究する初期段階にあります。機械学習によるセンサー。初期のアプリケーションには、画像分類や自然言語処理を伴うタスクにセンサーを使用することが含まれます。しかし、人々がどのようにして進歩できるかという例があります。
IMDEA Network の研究者は、IoT センサーを特定の深層学習タスクに使用すると、遅延や推論精度の低下など、センサーが特定のサービス品質を保証できなくなる可能性があることを認識しています。しかし、プロジェクトに参加した研究者は、この課題に対処するために AMR2 と呼ばれる機械学習アルゴリズムを開発しました。
AMR2 は、エッジ コンピューティング インフラストラクチャを活用して、IoT センサーの推論をより正確にしながら、迅速な応答とリアルタイム分析を可能にします。実験によると、アルゴリズムを使用しない基本的なスケジューリング タスクの結果と比較して、アルゴリズムを使用した後の推論精度は 40% 向上しました。
彼らは、IoT センサーがエッジに展開されたときに適切に動作するためには、このような効率的なスケジューリング アルゴリズムが重要であることを発見しました。あるプロジェクト研究者は、開発者が Google 画像のようなサービス (画像に含まれる要素に基づいて画像を分類するサービス) に AMR2 アルゴリズムを使用すると、実行レイテンシに影響を与える可能性があると指摘しました。開発者はこのアルゴリズムを導入して、ユーザーがアプリケーションを使用するときにそのような遅延に気づかないようにすることができます。
テクノロジー企業の CFO を対象とした 2023 年の調査では、80% の企業が来年の収益増加を期待していることが示されました。しかし、収益を増やすには、従業員が顧客のニーズを理解し、それに応じて製品やサービスを提供する必要があります。
IoT デバイスの多くのメーカーは、人々が自社の製品を定期的に着用することを望んでいます。一部のウェアラブル デバイスは、孤独な作業者が倒れたり、痛みを感じたりしたことを検出したり、身体的に負担のかかる役割が過度に疲れて休憩が必要になったりしたことを検出することもできます。この場合、ユーザーは自分の IoT デバイスが職場でもそれ以外でも確実に動作するという自信を持たなければなりません。
これが、研究者がエッジ AI によって IoT デバイスのエネルギー効率を向上させる方法を研究している理由の 1 つです。 IoT デバイスは、長時間座ることが健康に与える影響と、正しい姿勢がどのように結果を改善するかを研究するために使用されます。ライフスタイルデータを収集する IoT デバイスは継続的にデータを収集する必要があるため、デバイスのバッテリー切れによって情報収集が停止する可能性はほとんどありません。
上記の状況を回避するために、被験者が装着する無線機器は通常ボタン電池で駆動されます。通常、すべてのガジェットには慣性センサーが搭載されており、人々が 1 日を通してどれだけ移動したかについての正確なデータを収集します。ただし、主な問題は、大量のデータが転送されるため、バッテリーの寿命が数時間しかないことです。たとえば、1 秒あたり 50 サンプルを読み取る 9 チャネルのモーション センサーは、1 日に 100 MB を超えるデータを生成することが研究で示されています。
しかし、研究者たちは、機械学習により、アルゴリズムにより、エッジに配置された IoT デバイスからスマートフォンや情報分析に役立つその他のデバイスに重要なデータのみを送信できる可能性があることに気づきました。彼らは、事前トレーニングされたリカレント ニューラル ネットワークを使用し続け、そのアルゴリズムがリアルタイムのパフォーマンスを達成し、IoT デバイスの機能を向上できることを発見しました。
エッジ コンピューティングの進歩により、より多くの場所でスマート デバイスを使用する機会が提供されます。たとえば、リアルタイムの交通状況に基づいてオン/オフできるスマート街路灯を導入することが提案されています。テクノロジー研究者や愛好家は、エッジの IoT デバイスに直接展開される人工知能のトレーニング機会の増加にも関心を持っています。このアプローチにより、エネルギー消費を削減し、プライバシー保護を向上させながら、製品の機能を向上させることができます。
MIT のチームは、スマート エッジ デバイス上で人工知能アルゴリズムをトレーニングする実現可能性を調査しました。彼らはいくつかの手法の最適化を試みました。そのうちの 1 つは、マイクロコントローラーで機械学習アルゴリズムをトレーニングするのに 157K のメモリしか必要としませんでしたが、他の軽量トレーニング手法では通常 300 ~ 600 MB のメモリが必要でした。この革新により大幅な改善がもたらされました。
トレーニング中に生成されたデータはすべてデバイス上に残るため、プライバシー侵害のリスクが軽減されると研究者らは説明しました。また、アルゴリズムがスマート キーボードでの入力から学習できるかどうかなど、通常の使用時のトレーニングのユースケースも紹介します。
このアプローチは確かに目覚ましい結果をもたらしました。あるケースでは、チームは画像内の人物を検出できるようになるまで、アルゴリズムをわずか 10 分間トレーニングしました。この例は、最適化が双方向で実行できることを示しています。
最初の 2 つの例は IoT デバイスの動作方法の改善に焦点を当てていますが、このアプローチは AI トレーニング プロセスも強化します。ただし、開発者が IoT デバイス上でアルゴリズムをトレーニングし、より優れたパフォーマンスを達成できれば、AI アルゴリズムと IoT エッジ デバイスの両方に利益がもたらされます。
これらの例は、人工知能がエッジにデプロイされた IoT デバイスの機能をどのように改善できるかを調査する際の研究者の焦点を示しています。これらが貴重な洞察とインスピレーションを提供することを願っています。明確に定義された問題から始めて、目標の達成に役立つテクノロジーや革新的なアプローチを探すことが常に最善です。
以上が人工知能を使用してエッジ IoT を最適化する方法の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。