Web教材一覧>
法規・基準>
アクセシビリティ
Web教材一覧>
ハードウェア・ソフトウェア>
コンピュータグラフィックス
ヒューマンインタフェース、認知科学、認知工学、ビジュアルインタフェース、自然言語インタフェース、ノンバーバルインタフェース、空間インタフェース、マルチモーダルインタフェース 感性インタフェース
ヒューマンインターフェースとは,広義には,人と,機械や道具など人工物とのかかわりのことですが,狭義には人とコンピュータなどとのかかわりを指し、ユーザーインターフェースの名称も使われています。
ヒューマンインタフェースには、次のような要件が求められます。
代表的ななヒューマンインタフェースのモデルを列挙します。これらは互いに重複している部分があり、その境界は明確ではなく、何を主眼にするかの違いであることもあります。
人間とコンピュータが、対話しながら作業を進めていくシステムです。人が命令や質問をすると、コンピュータからの応答があり、それを見て、人が次の命令や質問をするというようなシステムです。一般に、定められた形式でキーボードやマウスから入力するレベルです。
人間とコンピュータの対話に視覚化を取り入れた仕組みです。代表的な表示方式にGUIやウィンドウシステムがあります。
文字での入出力だけでなく、音声での入出力も対象にします。これの特徴は、機器特有のコマンドなどではなく、人が日常的に使っている言語をインタフェースにすることです。そのため、人や時によって異なる表現を的確に理解する機能が重要になります。 また、不明確な指示に問い直したり、不十分な指示には追加情報を求めるなど、AI技術を取り入れることが必要になります。
自然言語インタフェースの一つで、自然言語の音声でのインタフェースです。スマートフォンでは広く用いられていますし、音声アシスタント(スマートスピーカ)や音声応答のカーナビなどが普及してきました。両手を使わずに機器操作ができるので、利用環境が格段に拡大します。 入力での音声認識技術、AIを使用した解析・分析ロジック、出力のテキスト変換と音声変換技術など多くの技術の組合せで実現しています。
言語(バーバル)以外の感覚(触覚など)を機器とのインタフェースに使うことです。例えば、ロボットが物体を持ち上げるときの触覚を操作者の手に伝えるようなことです。
空間ユーザインタフェースとは,3次元空間上の位置情報を活用したインタラクションです。典型的な応用はバーチャルリアリティ(VR)でのジェスチャーインタフェースです。仮想空間に入った分身が、操作者の動きに合わせて動き、それに合わせて画像も変わるというような例です。
操作者の動きはセンサで取得するので、操作者は情報機器を操作する必要がないことになります。
複数(multi)の様式(modal)によるインタフェースです。視覚(ディスプレイやキーボード、マウス)、音声(マイク)、触覚などを組み合わせます。バーチャルリアリティでは、マルチモーダルインタフェースが積極的に利用されています。
人間が普段行なっている動作と同じような動作が可能なインターフェースです。画面に直接触るタッチ操作、声による文字入力、人の手の動きによる機器の制御などがあります。出力については、画面などの視覚、バイブレーションによる触覚、音による応答、味覚や嗅覚などによる応答などがあります。
人間のコミュニケーションは、理論的規則だけでなく感性や心理情報が大きな要素になっています。そして、感性情報は主観性,多義性,曖昧性,状況依存性などの特徴があります。それを的確に取得して正しく解釈できるようにするのが感性インタフェースです。これには膨大なデータとAIの高度な技術が必要だとされています。未だ研究段階で実用には達していないようです。