19. 第4章 提案
本章では、手を用いた大画面向けインタフェースの設計について、様々な観点からどのよ
うなインタフェースが良いのかを提案する。また、どのようにしたら大画面環境において使
いやすいインタフェースになるかということと同時に、Mark Weiser や D.A.Norman らが提唱
しているコンピュータ環境に近づけていくためにどうしたらよいかということに重点を置い
て提案していく。
4.1 デバイス
手を用いたインタフェースでは、手にセンサのついた手袋などのデバイスを装着すること
が多い。それには様々な理由があるが、デバイスを用いる最大の理由はより正確でより細か
い動作を行いたいからである。現在の技術では人の手の細かい動きをデバイスなしで正確に
把握することが困難である。また、指の位置などを 3 次元で把握することも難しい。なので、
複雑な作業、例えば、細かい図形の描画などにはどうしてもデバイスの装着が必要になって
しまう。
一方、デバイスを用いらない場合、現在の技術では、デバイスを用いた場合と比べて、正
確さに欠け、3 次元の座標は調べにくい、細かい動作を把握しにくいといった問題点がある。
しかし、大体の動きや動作を認識することならば可能である。そのため、簡単な作業、例え
ば、文章や web の閲覧や大体の位置にオブジェクトを移動させることなどを行うには十分で
ある。仮に、デバイスなしで 3 次元の位置座標や細かな動きを把握することが出来る技術が
あるのならば、デバイスなどが一切いらなくなる。そうなればユビキタスコンピュータの理
想形に近づくことになる。
本来ならば、正確性などを上げるために手にデバイスなどを装着させるべきなのであろう
が、本研究で手にデバイスを用いらなかったのには理由がある。それは、本研究の目標の一
つとして D.A.Norman の提唱した “Invisible Computer” にある。D.A.Norman の著書 [2] による
と、“the technology of the computer fades away out of sight,and the new technology that replace it
is as readily accepted and easy to use as a cassette tape recorder or CD player.” にある。つまり、コ
ンピュータ技術は目に見えないところにあり、分かり易い技術に取って代わることが “Invisible
Computer” の目的である。そのため、デバイスを用いてしまうとコンピュータ技術が前面に
来てしまうことになる。そこで、本研究では、現在の技術で少しでも “Invisible Computer” に
近づけるため、あえて手にデバイスを装着させなかった。
12
41. 参考文献
[1] Mark Weiser. The computer for the twenty-first century. In Scientific American, pp. 94–104,
September 1991.
[2] Donald A. Norman. THE INVISIBLE COMPUTER. THE MIT PRESS.Cambridge, Mas-
sachusetts, London, England.
[3] Daniel Vogel and Ravin Balakrishnan. Distant Freehand Pointing and Clicking on Very Large.
In UIST’05,pp.33–42,2005.
[4] Shahzad Malik, Abhishek Ranjan, and Ravin Balakrishnan. Interacting with Large Displays
from a Distance with Vision-Tracked Multi-Finger Gestural Input. In UIST’05,pp.43–52
[5] Azam Khan, George Fitzmaurice, Don Almeida, Nicolas Burtnyk, and Gordon Kurtenbach. A
Remote Control Interface for Large Displays. In UIST’04,pp.127–136
[6] Kento Miyaoku, Suguru Higashino, and Yoshinobu Tonomura. C-Blink: A Hue-Difference-
Based Light Signal Marker for Large Screen Interaction via Any Mobile Terminal. In
UIST’04,pp.147–156.
[7] Georg Apitz and Francois Guimbretiere CrossY: A Crossing-Based Drawing Application. In
UIST’04,pp.3–12
[8] Francois Guimbretiere and Terry Winograd. FlowMenu: Combining command,text, and data
entry. In UIST2000,pp. 213–216.
[9] Ken Hinckley, Randy Pausch, Dennis Proffitt,and Neal F. Kassell. Two-Handed Virtual Manip-
ulation. In ACM Transactions on Computer-Human Interaction, Vol. 5, No. 3, September 1998,
pp.260–302.
[10] S. Iwabuchi, B. Shizuki, K. Misue, and J. Tanaka. Natural Storage in Human Body.
KES2005,Part IV, pp. 430–436.
[11] Xing Chen and James Davis. LumiPoint: Multi-user laser-based interaction on large tiled
displays. Displays,Vol. 23, pp. 205–211.
[12] Richard A. Bolt.“ Put-that-there ”: Voice and gesture at the graphics interface. SIGGRAPH
’80,1980, pp.262–270.
34