Article header library 124025  5

簡単!ジェスチャーセンサ:アナログ・デバイセズ社製 ADUX1020の紹介

ユーザーインターフェースとしてのジェスチャーセンサ

多くの組み込み機器において、ユーザーインタフェース(UI)は製品の「顔」だと言えます。

気の利いたUIはユーザが機器を使いこなすのを助け、ファンを作り、ユーザをリピーター化する力があります。その一方で、使いにくいUIは製品の評価を下げることもあります。つまり、UIは機器に“違い”を生むポイントの一つになります。

UIと一口に言っても色々な方式がありますので、機器を設計する上でUIの選択には注意を払わなければなりません。UIで使用される技術も日々進歩しています。

メカニカルなボタンやメンブレンスイッチが静電容量式タッチスイッチに置き換わり、タッチパネルが登場し、最近では音声認識をユーザーインタフェースに利用した製品も出てきています。静電容量式タッチスイッチの普及には、故障率やコスト面、あるいは筐体設計の柔軟性(防水加工など)など“製造側のメリット”が背中を押した部分が大きいと思われますが、その後に普及したタッチパネルでは直感的に使えるという“利便性”をユーザにもたらしました。そして音声認識など、利便性に加えて“ユーザエクスペリエンス”を意識したものにトレンドが移りつつあります。ただし、いかに技術的に進んだ方式を使用したとしても、それがユーザにとって価値あるもの(=洗練されたもの)になるかどうかはアイデア次第とも言えます。

Article header library 124025 pic01  1

UI技術の進歩

機器のUIを価値あるものにしたいと考えるなら、アイデアを活かす“余地”のあるUIを選択するのが良いと思います。
前出のタッチパネルや音声認識も良いですが、利用できるUIはこれだけではありません。今回ご紹介したいのはジェスチャーセンサ(モーションセンサ)というUIです。

今回はジェスチャーセンサとして、アナログ・デバイセズ社のADUX1020を紹介いたします。
ADUX1020はLEDを使ってジェスチャーを識別するタイプのセンサです。AFE、ADC、LED ドライバ、タイミングコアなど全機能が内蔵されており、このため、LEDを接続するだけでジェスチャ制御、近接度検出を含む複数の光測定アプリケーションに使用できます。もちろん、光学部品の高精度なアライメントやレンズが不要なので、光学設計などの専門的知識は必要ありません。

Article header library 124025 pic05  1

ADUX1020

たった1つのLEDでジェスチャーを識別

ADUX1020の一番すごいところはLEDが一つで済むところです。通常、同じような方式だとLEDを複数必要で、かつ、配置にも制約があることが多いです。これらの制約を受けず、一つで済むのは、面積や配置などの自由度を高めます。

ADUX1020からは、X1、X2、Y1、Y2のデータがでてくるので、後は計算するだけです。

Article header library 124025 pic02  1

LEDが一つで済むADUX1020

ジェスチャー認識に必要な機能を集約

ADUX1020の構成を見てみましょう。外部にLEDを置いて内蔵のLED DriverでそのLEDを発光。その反射をPosition Sensor(PD)で検出し、TIAを介して14bit ADCで取り込みます。ADUX1020からは、X1、X2、Y1、Y2のデータがでてきます。ジェスチャー(動くもの)の検出なので時間との関係性も重要です。ということで同時サンプルのため、4つのアンプ、ADコンバータがあるのですね。このあたりの性能はアナログ・デバイセズ社の真骨頂ですのでまったく心配していません。

Article header library 124025 pic03  1

ADUX1020の構成

X1、X2、Y1、Y2から位置を読み取る

X1、X2、Y1、Y2がどのような関係性があるのかというと・・・、以下の図を見てください。

Article header library 124025 pic04  2

Y方向にスワイプした場合の値

こちらY方向にスワイプした場合の X1、X2、Y1、Y2のそれぞれの値をプロットしたものです(X1-青、X2-緑、Y1-赤、Y2-黒)。
赤色(Y1)だけ他の3本と違う軌跡となっていることが確認できるかと思います。ここでXとYで考えてみると、X1とX2を比べた場合はほとんど差がありませんが、Y1とY2を比べると違いが見られます。

A・B点ではY1>Y2、C点ではY1=Y2、D・E点ではY1<Y2となっています。
横軸は時間的な経過のため、その過程において、出力データであるX1、X2、Y1、Y2の変位を解析してジェスチャーを判別しているようです。なるほど。

ジェスチャーの移動スピードや方向、距離などの要素で上記図の形は変わるでしょうから、判別アルゴリズムは作り甲斐がありそうですね。

ジェスチャーセンサを活用するためには

アルゴリズムの考え方については、アナログ・デバイセズ社よりアプリケーションノートが出ておりますのでそちらを参照いただければと思います。

ADUX1020製品ページ
AN-1419:ADUX1020によるジェスチャ認識(日本語)

次回、ADUX1020を動かしてみる では実際にADUX1020の評価ボードを使って動作検証をしてみたいと思います。


おすすめ記事/資料はこちら

商品の購入はこちら

関連タグ