« サリエンシーマップの計算用コード(2015年6月版) | 最新のページに戻る | 駒場学部講義2015の準備メモ(2015年5月版) »
■ 眼球運動の無意識な動きを活用する
私が「意識の科学的研究」ってテーマを強調するときは「意識経験について説明できるくらいに脳と心と体の仕組みを明らかにすべき」って意味であって「無意識と比べて意識を研究するべき」って意味ではない。そもそも盲視(無意識の視覚)を研究してるんだから。
僕自身二十歳の頃から視線インタフェースには親しんでいて、視線でプレイするブロック崩しとかも作ってきたけど、健常者向けの意識的な「視線入力」には懐疑的。ただ、視線計測に基づくインタラクションには様々な可能性は広がっていると思う。— 稲見昌彦 Masahiko Inami (@drinami) 2015年6月7日
マウスみたいに意識的に目を動かして入力に使うより、無意識な目の動きをインタラクションに使うほうがいいんじゃあないかって思ってたんで、すごく合意できる。
マイクロサッカードは計測精度が必要なのであご台で頭固定しないといけないのが難点。でもいまアイトラッキングはかなり注目されていて、どんどん安くなってきているし、キャリブレーションも一点でよくなっているし(ゴーグル型で眼と二つのカメラの位置とが固定していることを仮定できるため)、面白くなってきそう。
いま考えているのは以前作った2つを組み合わせてやるといいなというもので、「Proccessing + SuperCollider + Tonnetz」(ブログ記事)
では、マウスでクリックした位置をprocessingで処理して、SuperColliderに送って鳴らしていた。
それから生理研一般公開2014のときに作った「Eye-tracking for dial tones」(ブログ記事)
ではアイトラッカーを使って視線を1か所に保持すると音を鳴るというものだった。この両者を組み合わせてやればいいなと思ってた。
でもって、このプッシュホンのやつみたいに鍵盤を押すように意図して音を出させるやつだとマウスを使うのと大差ないので、普段の自発的なサッカードをそのまま使って音を鳴らしてやればいいんじゃあないかと考えてた。ヒトは普段一秒に数回サッケードする。その大きさは5degくらいをピークにロングテールになってる。この特性に合わせてうまいこと音が鳴るようにしようとか思ってsupercolliderいじってたのだけれど、なかなか進まない。
つまり、fixationしているときに音を鳴らすんではなくて(それだとマウスでポチポチと同じ)、サッカードしているときのvelocitityとかを取ってくる。そうするとイベントが断続的になるのでattack/decay/sustain/releaseを効かした音を重ねてゆけるっていうアイデア。
(追記20161028) けっきょくまだ計画中のまま。