[月別過去ログ] 2009年12月

« 2009年11月 | 最新のページに戻る | 2010年01月 »

2009年12月27日

What is the best way to access to the internet in US?

I got a fellowship that will offer money to stay at LA from the next April to June. It is just a three-months long. It is not enough to complete some projects but is enough to start something new.

Right now I am gathering information about apartments, cars and so on.

One thing I am not certain is what is the best way to access to the internet in US. I have an iPhone 3G for the Japanese phone network and did not unlock nor jailbreak it. The points are, it is just a short stay and all I need is email and skype and I do not need a cellular phone.

I guess I have some choices:

  1. Use Global Roaming service of the Japanese phone company. Ridiculously expensive.
  2. Buy a Verizon MiFi 2200 portable WiFi hotspot and connect my iPhone via wifi (link). It looks promising but it requires a 2 year commitment.
  3. Unlock my iPhone and use a prepaid phone (for example, goPhone: link). I do not want to jailbreak it.
  4. Buy a prepaid phone and forget about my iPhone. Cheapest choice.
  5. Wait for Google to sell their SIM-free Google Phone. If I can use it when I am back in Japan it is a best choice, but I am not sure, because of the difference in the phone systems.

I hope that the Google Phone will come out soon. Although it is a completely different issue, I think it would be easier to start openCV on android than openCV on iPhone. It would be another factor.

コメントする (5)
#

"monkey" in the first sentence would be "money", wouldn't it?

# pooneil

Thanks. I corrected it.

# 在米年越し

3ヶ月でお一人ならcraigslistでサブレットのアパートを探すのが良いのではないでしょうか?場合によってはネットも使えると思います。LAなら街にはそこそこフリーwifiがありそうです。
ルームメイトがいることもあるかもしれませんがこちらの人は皆そんな感じでなれていると思いますし、そんな経験も楽しいかもしれません。若者や学生は騒がしいかもしれませんが、普通の落ち着いた大人もルームシェアをしています。
車もcraigslistで買えますが、売ることや保険を考えるとレンタカーで3ヶ月リースした方が良いと思います。通勤に車が使えない場合もあると思うので毎日使わないのなら、その都度レンタカーの方が良いかもしれません。
携帯はクレジットヒストリーやら社会保障番号が必要な場合もあって面倒くさいかもしれません。プリペイドなら簡単です。機種が限られますけどね。たいてい多めのデポジットを払えば何でも使えると思います。国際電話はネットが使えればスカイプを使えば良いし、プリペイドの携帯でも国際着信は出来ます。
電話機自身もcraigslistで安く買えるかもしれません。
友達も必要ならcraigaslistですかね?

#

一年間の予定でアメリカに留学中です.
携帯は日本からDocomoとe-mobileのS21HTを持ってきました.
S21HTにAT&TのプリペイドSIMを挿しています.
ただし,AT&Tの3Gには対応していないので,GSMでつながっています.それゆえ,ネット速度が非常に遅いです.
僕は日本に電話はたまにしかしないので,Docomoの無料通信分で十分です.
最近,Kindle2を購入したので,これでもネット接続をしてみましたが,いつ課金されるか分からないのとそもそもブラウザの処理が非常に遅いので,あまり実用的ではありません.

スターバックスで,スターバックスカードを購入し,ホームページで住所等を登録して,使用すると一ヶ月間毎日2時間以内なら無料で無線LANに接続できます.
http://www.starbucks.com/retail/wireless.asp
また,Barns & Nobleでは無料で無線LANが使用できます.
Skypeは使用していないので,使えるかどうか分かりません.

# pooneil

おふたりともどうもありがとうございます。
craigslist駆使するのは賢い選択であるようですね。私は英語がへたくそなので自信ないですが。
Touch DiamondはプリペイドのSIMが差せるのですね。それはいいですね。
なんとかうまいこと節約してやっていこうと思います。御礼まで。


2009年12月18日

Single-unit studyにGLMMは必要ないか?

前のエントリにVikingさんからコメントがありましたので、それへのレスポンスからいろいろ書いてみました。

Single-unit studyにはGLMMは必要ないだろうか? まず現状として、だれかが必要だと主張しているわけでもない。JNPのガイドラインにもsubjectのnを増やしましょうなんてのはない。でも、いままでは問題とされてこなかったけど本当は問題だと思うんです。このあいだもいくつか書きましたし、二頭目でconsistentなデータが取れないで苦労した、なんてのはよく聞く話です。Subjectをrandom effectにできないのなら、他のsubjectに対するinferenceはできないのだから、そこで得られた知見はどちらかというと症例報告に近いということになります。(そのわりにn=1ではダメだってあたりが、社会的合意によって決まっていて、統計的裏付けがあるわけではない。) だからわたしが書いているのは、こういう問題を統計モデルとしてexplicitに扱いましょうよ、という問題提起だと思っていただければと思います。

どんな実験系もそれぞれに制約があります。fMRIだったらシグナルが非常に間接的なものであることだし、nhp single-unitだったら被験者が少ないことだし、multi-unitでのcoincedence detectionだったら記録時間が短いことだし。そのうえでみんなギリギリ言えることを主張するわけです。(high-quality journalになるほど無茶する必要が出てくる。)

でも統計的モデル化する際には形式上はみんな同じなんで、そういった実験側の制約を補償することは出来ないわけです。つまり、どんなにたくさんのneuronから記録しても、subject数=2であるならsubjectによる分散を推定することができないので(*)他の個体へのinferenceはいつまで経っても出来ません。「お前がそう思うんならそうなんだろう、お前ん中ではな」としか言いようがない。

(* GLMMのテキストをいくつか読んで理解したかぎりだと、subjectをrandom effectとしてとった場合には、モデルを作るときにはエラーの構造が変わるだけで、fixed effectのサイズの推定には影響しない。とりあえずmixed modelにするだけならsubjectのn=2でもできる。fixed effectのeffect sizeの推定値が得られると、その値を入れてやってMCMCとかやることでrandom effectのsize(=分散)の推定が出来る(経験ベイズ的な手法)。たぶんこの過程で、subjectのn=2だと正確な推定が不可能になるはず。subjectのnが少ないということの問題はこんなかんじで出てくる。)

以前のエントリで、せめてfixed effectでsubjectのinteractionが出ないことを示すべきだ、みたいなことを念頭に置いて書いたことがあります。でもこれだとSubject 1からcell 100個でsubject 2からcell 10個というデータだったとしてもバレません。

以前たぶんVikingさんのところにコメントしたけど消えちゃったんじゃないかと思いますけど、single-unit studyでは同じパラダイムでconsistentな論文が続いて出るかどうかでそういった分を担保しているように思うと書いたことがありました(*)。「階層ベイズをもっと体系的に組み込んで、実験系全体をモデル化するようなこと」って書いたときにイメージしていたのはそういうことで、メタアナリシスみたいに、複数の関連する実験結果をどんどん拘束条件に持ち込んでいって、そういった社会的合意みたいに済まされていたものをもっとexplicitにモデル化したらいいんじゃないか、なんて思うんです。

(* これはもちろんどの分野でも当てはまるのだろうけど、single-unitではかなりcriticalでないだろうか。)

それからもう一つ前提が抜けていましたが、いま言ったようなことはこれからの実験データのオープン化、データベース化、共有化という流れに向けて重要になるだろうと思ってます。これは2頭でnhpでsingle-unitというやり方自体を変えていった方がよいのではないかという問題提起も含むことになります。今書いていることの射程距離はそのへんです。

コメントする (4)
# viking

ご丁寧なお返事下さいましてありがとうございます。

ちょっと長いコメントになりそうですので、僕のblogでエントリを立てた上でTBをお送りしようかと思います。よろしくお願いいたします。

# viking

もしかしてTB失敗したかもしれませんので、リンクを貼らせていただきます。よろしくお願いいたします。

http://www.mumumu.org/~viking/blog-wp/?p=3547

# やまだ

こんにちは。GLMMの必要性は前から気になっていましたが、以下の様なデータではその有効性がかなり発揮されるのではないでしょうか?

1.1頭のサルから多点同時記録(脳領域2カ所以上、一カ所での記録細胞数が30以上くらい)
2.100試行くらい課題をこなして、実験終了
3.ノイズの多い、フリームービングな状況
4.以上の条件でサル4頭くらいかそれ以上のサンプル

多点同時記録データで、かつ自然環境下に近い状況でタスクして情報量が増えてる場合、GLMMは有効だと思います。この状況で実験してる方はまだ少ないですが、ラットなども有効なんじゃないか?と思います。旧来のシングルユニットでどれだけGLMMが必要なのかといわれれば、その有効性がイマイチ良くわからないというのが正直な感想です。

# やまだ

すみません。上記の補足です。旧来のシングルユニットでどれだけGLMMが必要なのかイマイチ良くわからないといったのは、その”有効性”についてです。生態学であれだけ盛んにGLMMが用いられているのは、手法として有効だからだと思います。”統計モデルとしてexplicitに扱いましょう”という部分に関しては、その通りだと思います。ただ、メリットが薄いと難しい統計モデルを用いる動機はあがらないと感じています。従来のシングルユニットにGLMMを用いることで、結果はどうより良くなるんだろう?というのが漠然とした疑問です。
 報酬系をやってると個体差があるのは当然で、その個体差を含めて評価するのかがむしろ重要だと思います。でも、N=2,3くらいではなかなか難しいですね。。。全脳の活動を見ているわけでもないですし。おじゃましました。


2009年12月12日

Pooneil Radar 2009

いろいろ書きたいネタが貯まっているんだけど、もうすこし調べておかないとしょうもないことしか言えないという中途半端な状態なので、ネタ帳的にいろいろ書き付けておきます。

タイトルの元ネタは"O'Reilly Radar"っていう、ティム・オライリーのレーダーにかかった今後面白くなると思われるネタ集みたいな話で(たとえばIT conversationのpodcastでOSCON2004のときのトーク)、それをもじって命名するとはどんだけオレも自我が肥大化しているかっていう(って書くと後輩が「吉田さん、どんだけの使い方間違ってます」って指摘してくれるという親切システム。)


  • 以前からgeneralized linear mixed model(GLMM)について調べてる。fMRIの世界ではFristonのおかげでrandom effect modelがSPMに導入されて標準化されたので、複数の被験者のデータからのinferenceにrandom effect modelが使われるようになった。
    一方でnhpのsingle-unit studyではこのへんが遅れている。fMRIと比べて、被験者の数が少なく、記録しているニューロンの数や、繰り返しの試行数が多い。だからたいがい被験者のデータはmergeするし(必要に応じて被験者ごとに検定したり)、試行数の繰り返しは平均して使ってしまう。これはよくない。
    データ構造は一般的には、被験者数がn=2-3で、その中で複数のニューロンを記録して(n=100ずつとか)、さらにそれぞれのcellで各条件で最低限10trial以上の繰り返しを行っている。つまり、nested designのmixed modelになってる。Rのmodel式で書くと(lme4でのnotation)、Firing rate ~ condition + (1 | Subject) + (1 | Subject:Cell) + (1 | Subject:Cell:Trial)みたいな構造を考える必要がある。しかも応答変数Firing rateの実体はNumber of spikesだから、計数データとして"generalized model"にしとかないといけない。
  • このへんを勉強しようとすると、生態学がいちばん進んでいるのがわかる。生態学はフィールドでどの区画にどれだけの個体がいるかみたいな情報を扱うから。北大の久保拓弥氏のサイトとか見るとたくさん資料があって、超助かる。あと、GLMMが経験ベイズの一種であって、階層ベイズによって包括されるというこの図を見て感激した。こういうことをもっと知りたい! (いろいろ読んだけどここでは省略。)
    階層ベイズをもっと体系的に組み込んで、実験系全体をモデル化するようなことに興味がある。たとえば"Hierarchical Modelling for the Environmental Sciences"の4章の図4.2見てほしいんだけど、こんなかんじで脳の解剖学的な拘束条件とか全部突っ込む。
  • いろいろあってneuroshare関連の話に多少関わってるので、話が通じるくらいには勉強してる。要は自分の解析と一体化させることが出来たらいいんだけど、neuroshare形式を使った解析ソフトがそんなにあるわけでもないのですよね。FINDとかがmatlabが主体になっているのは実際的ではあると思うけど、オープンソースという観点ではRとかでできないっすかね。上記の問題意識からすると、Rベースでunit/LFP/ECoGにとってのSPMみたいなの作ればさ、Fristonになれるんじゃないですか。だれかやって!
  • nhpを使った実験をしてゆくにあたって、いかにして適切なトレーニングをしていくか考えなければならないとずっと思ってた。そのためにはpositive reinforcement techniqueに基づいたトレーニング法を採用するのが正しいはずだ。しかしこの分野は資料が少ない。J. Appl. Anim. Welf. Sci. 5(4)に特集があって役に立つ。単行本だけど「うまくやるための強化の原理―飼いネコから配偶者まで」カレン プライアが名著で、前述の特集号でも参考文献として引かれてる。
    ちなみにこの人はイルカのトレーニングの創始者で、犬のクリッカートレーニングにも大きく寄与してる。しかも"The creative porpoise: training for novel behavior"のファーストオーサーだった! (これはベイトソンの本にも出てくる「それまでにしたことのない行動をすると強化される」というメタな学習の例)
    あと、「動物感覚」も良いことが書いてあるのでまとめておきたい。スキナー的なものへの敵意が混ざっているので取扱い注意だけど。
    ともあれ、微妙なissueなので、書くときはちゃんと書かないといけない。
  • このブログはMovable typeのver.3.33で出来ていていい加減古いので、アップデートしようと思ってる。Movable type 5が出るって発表が出たあたりから、アップデートするか、wordpressに移るか決めるためにテストしてました。Ubuntuの9.04のserver editionが出てたんで、virtualboxに入れたり、vmwareに入れたりして。でも最終的な決断が出来ず。正直いまのままでもいいやって感じで、テンプレートいじったりしていろいろ工夫する情熱を失ってる。
  • 以前のエントリでNIPS-SSCのregistrationとかabstract suibmission用にOpen Conference Systems (OCS)ってのをいじってるというのを書いたことがありました。じつはいろいろテストをして、いろいろ手を加えて(無駄な階層をどんどん削って)、とりあえず稼働できるところまでは来たんだけど、けっきょく扱えるのがわたし一人で、それだったら手動でやっても余り手間が変わらないということでけっきょく止めにしました。
    というわけでその間の奮戦記とかいろいろあるんですが、まとめるのさえ面倒になってしまった。どうしてだれも日本語化とかしないですかね。でもこの方向で行くのが正しいと思うので、機会があったらまたチャレンジしたい。(ここ最近のわたしの行動を見てもらうとわかると思うけど、基本はDIYでいこうってわけ。)
  • Facebookのアカウント取って細々と使っているのだけれど、せっかくだからもっと活用したい。とくにNIPS-SSCつながりでFriendが増えたので、英語でなんか書いておきたい。というわけで、ブログで英語のエントリの作成をして、それをFacebookに「ノート」としてimportしてる。
    こっちは日本語だと書きにくいこととかを書こうと思う。たとえば、秋くらいに"The Electric Kool-Aid Acid Test"(の訳書)を読了していまは原書で読み直してるところなんだけど、へんに誤解されないようにこういう話題は英語に持ってゆく。
  • なんかポストロックっぽくギターをかき鳴らして、ビデオに撮って、YouTubeに挙げて、埋め込みでエントリ作るってネタがずっとあるのだけれど、実行している暇がない。キャプションに「お遊戯的なことなら 外でやってくんない?」って入れるところまで決めてあったのに、つーかクラウザーさんネタだったのにもう古くて使えないぢゃないか。
  • 将来のプロジェクト関連。これはいろいろ。パーツ自体よりは組み合わせが大事だと思うんだけど、こういうのはいろんな人のところに行って吹聴しては、反応見てる。
  • 自分の健康についてはいつかきっちり書いておこうと思う。ってほんとうに単なるToDoリストになってしまいました。Get Things Done! 話を戻す!
  • 以前に「細胞外電極はなにを見ているか 」というのと「細胞外電極はなにを見ているか リニューアル版」というエントリで、細胞膜でのイベントから細胞外電位の発生までの生物物理的な話をまとめたことがありました。あそこで足りなかった視点のひとつは電極の特性の件でして、電極のコンタクトの面積や抵抗でどのように波形が影響されるかみたいな話をちゃんとまとめておかなければと思ってます。つーかわたしである必要なんか無いんだけど。誰かやってほしい。ほかにも、microstimulationについてとか、電気生理用のアンプについてとか、わたしはそっち方面のバックグラウンドがないので、将来のため、教育者として、きっちり勉強しておきたいと思ってます。
  • Saliency mapについては将来のプロジェクトのひとつではあるけど、もっといろんな繋がりが可能なので、もうすこし自分で使えるようになっておきたい。たとえば、Ittiはあくまでスタンドアロンでのneuromorphicなシステムとして捉えているようだけれど、OpenCVとかで使えるようなライブラリにしちゃえばいいんじゃん?とか思う。あと、あらかじめシステムとして構築するのではなくて、data-drivenにシステムを作る方向へ行きたいですよね。実際そういうことをやっている人はすでにいる。たとえばFelix A. Wichmannの"Non-linear System Identification: Visual Saliency Inferred from Eye-Movement Data"とか。(そういうわけでPRMLとか読んでるわけ。)
  • Overtrainした状況でのくりかえし行動での脳活動というパラダイムを越えてゆくためには、膨大な行動データから特定の行動を自動的につり上げてくるというようなことが必要であって、そういうアルゴリズムを開発している人はいないのだろうかと思ってた。わたしのPCには「行動のデータマイニング」というフォルダがあって、そこには去年の冬あたりにサーベイしたときのファイルが残っていて、「センサネットによる行動パターン識別システムの開発」とか「バイオロギング研究所」(リンク切れ)とかそういうのを集めたところまで行って、止まってた。
    そしたらATRの神谷さんがいろいろ教えてくださって、一挙に道が開けた。そもそもわたしは「エソグラム」という言葉すら知らなかったのだけれど、ここに広大な領域があるのを知った。ということでここすごく勉強したい。

って書いてたらそれなりに分量はあるな。計画を書くとそれで満足してしまうというありがちな展開を経ながらも、このブログは続いていくよ。普通頻度が下がってゆくとどっかで静かに消えるというのがありがちなブログの終わり方なのだけれど、一ヶ月更新がなかったあとでいきなり週に3回書いたりするのがこのブログ。RSSに入れてチェックしておいてください。(7年目に突入したよ!!)

コメントする (2)
# viking

Human fMRIと違って、nhp single unit recordingは測定そのものに「ノイズが少ない」のですから、自ずとfMRIにおける統計とは考え方が変わってくるのではないでしょうか?

というのは、ヒトfMRI実験におけるBOLD信号が、blurring effectだの血管効果だの、はたまたin-flow effectとBOLD effectとのせめぎ合いだの、といった多くの未解明な複合要因のバランスとして得られるものであるという事実を考えると・・・あくまでもtaskなりeventなりの効果だけを見るためにfMRI(のSPM解析)でrandom effectsに着目するのはnoisyな測定系であることを考えれば当然の帰結でしょう。

これに対して、それほどnoisyではないnhp single unit recordingではそういう問題を考える必要性は薄くて、なればこそ個体数n = 2,3でも許容されるということだと思うのですが。

ですから、ここでGLMMなり別の統計を提案するということであれば、考慮すべきは何よりもまず「どの測定量がばらつくのか」ということを事前に仮定するということだと思います。それが個体間であれば個体数nを増やしてSPMのrandom effectsライクにいくしかないわけですし、ニューロン群間であればそこに着目した統計値を採用する、という流れになるのではないでしょうか。

# pooneil

コメントどうもありがとうございます。

論点はどこでしょうか? Single-unit studyにGLMMは必要ないというご意見でしょうか?

いままでは問題とされてこなかったけど本当は問題なわけです。だから、統計モデルとしてexplicitに扱いましょうよ、という問題提起だと思っていただければと思います。

返答としてはこんなもんなんですが、インスパイヤされたことをエントリにしてみました。そちらもぜひご覧ください。


2009年12月07日

ヘッドマウント式で眼球運動計測

3年前のエントリ「EyeLinkってどうなんですかね 」でCCDカメラによる眼球運動計測システムについて多少調べたことがありました。あれから業者の方にデモしに来てもらったりとかいろいろやってたんですが、けっこうバカにならない金額なんで、なかなか先に進んでいませんでした。
でも新プロジェクトのこととか考えつつ、今回の脳プロ分科会とかに行ってきて、「ヘッドマウント式で、ヘッドフリーで眼球運動計測(eye, gaze, head)」についていよいよ本気で進めていく気になりました。「でもお高いんでしょう?」(通販番組っぽく)
そうしたら、絶妙なタイミングでMakeのブログで「EyeWriter - 安価な視標追跡器具」なんてのを発見。これは、視標追跡装置(eye tracker)がハードウェア(4000円のプレステ用webカメラ)もソフトウェア(open source)も安価なもので作れるようにすることで、ALS患者の方にとって実用的なシステムになる、というもの。Eye trackerの部分はopenEyeというOpenCVベースのopen source softwareが使われている。文字などを書くeye writerの部分はこれまたopen sourceのopenFrameworksで書かれている。
このへんはprocessing - arduino - openFrameworksといった物理コンピューティングの分野とがっちり繋がっている。つーかはやく"Programming Interactivity"が翻訳されてくれるといいのですけどね。
わたし自身は自分で作ることは考えていなかったのだけれど、これならたしかに作れてしまうな。ということで調べてみました。(以前はわたしはremote cameraのほうを想定していたのだけれど、head-freeに応用するのは厳しそう。)
まず、COGAIN (Communication by Gaze Interaction)という団体がこの方向を推進していて、毎年カンファレンスも開いている(たとえば今年のproceedings(PDF))。webサイトにもいろんな資料があって、レポートを出してる。ハードウェアについては"D5.3 Eye Tracking Hardware Issues"(PDF)で、ソフトウェアについては"D5.2 Report on New Approaches to Eye Tracking"(PDF)があって、もちろんタダでダウンロードできる。正直、この二つ読んどけばもう作れそう。
ともあれ、ちょっと時系列を追ってゆくと、この方向(安価な部品でゴーグル型のアイトラッカーを作る)を確立したのはRochester Institute of TechnologyのJeff B. Pelzであるようだ。2004年の"Building a lightweight eyetracking headgear"(ETRA2004のproceedings)および2003年の"The Wearable Eyetracker: A Tool for the Study of High-level Visual Tasks"に詳しい記載がある。
Eye cameraとしてはPC206XPという小型のピンホールレンズのカメラを使ってる。Supercircuitsというところで78ドル。1/4インチCMOSで水平解像度が420。カメラのサイズは9.5*9.5*16mm。これのレンズの部分を外して、Kodakの87c Wratten filterという赤外線写真用のフィルターのシートを挟んでやる。
(余談だけど、赤外線写真には前から興味があった。というのもサイケデリックロック好きとしては、いくつか有名なジャケット写真が赤外線写真で撮影されていて、たとえばDonovanの"A Gift from a Flower to a Garden"とかFrank Zappaの"Hot Rats"とか、なんかこの世でないようなヤバイ雰囲気を醸し出してくれるんだわ。将来のオレのCDジャケは赤外線写真でいきたい(<-ナニサマ?))
Scene camera (ゴーグルに付いていて、見ている場所を写すカメラ)にはPC53XSというのを使用。IR LEDはRadio Shackって書いてあるんで、同等品を秋月電子から買えばよいでしょう。
ハードウェアはこんなかんじで、ソフトの部分に関しては、とにかく画像をキャプチャーしておいてあとでオフラインで解析とある。
さっきのCOGAINのレポートの"D5.6 Report on New Approaches to Eye Tracking. Summary of new algorithms"では、"Eye tracking indoors can be considered as a solved issue with high resolution eye images and quasi-stable lighting conditions"なんて書かれている。うれしいこと言ってくれるじゃないの(ジッパーをおろしながら)。で、野外とか照明が一定しない条件やIR LEDなしでの検出とかリモートカメラの使用とかそういうところに問題は移っているとのことらしい。というわけでソフトの部分もopen sourceで使えるものが出てきて、それのひとつがopenEyes。これが上記のMakeで採りあげられたシステムが使っているもの。ハードウェアの記載とともに"openEyes: A low-cost head-mounted eye-tracking solution" (前述のETRA2006のproceedings)およびチュートリアルにくわしい説明がある。
こっちでは、eye cameraとしてunibrainのFire-Iというwebカメラを使ってる。IEEE1394接続になっているので直でPCに繋いでもドライバとかが揃っているというところがポイント。(複数台のカメラがデイジーチェーンすることによって自動的に同期するというメリットもある。) スペックは、1/4インチCCDで640x480pixel、30 frames per second、レンズはF 2.0で焦点距離4.3mm。もの自体は今でも売ってるけど、今いちばん新しくて安いものを使う方がよいでしょうね。作り方としては、カメラ部分をソケットから外して、IRフィルタを付けてる。基本的なところはさっきと同じ。
これをさらに簡単にしたのが、Makeで紹介されていたeyewriterで、こっちではプレステ3用のwebカメラ PS3 Eyeを使ってる。アマゾンで4500円。wikiで作られているサイトによると、PS3 EyeはUSBカメラで、解像度は640*480だけど、320*240で使うと120fpsまでいけるというのがミソらしい。Instructablesにチュートリアルがあって(eyewriterからPDFダウンロード可)、なんとこの説明ではハンダ付けすら不要(ワニ口クリップでつまんで繋いでる!)。IRブロックするフィルタを除去して、IRを通すフィルタ(さっきのコダック 86c)の代わりにフロッピーディスクを切り取って貼ってる。超DIY! どうやらこのハックは有名なものらしくて、別の文脈で図解しているサイトもあった。
というのがeyewriterまでの文脈なのだけれど、わたしの文脈で、性能と費用と労力のバランスを考えたらもっとよい解はある。
ぜんぜん別の文脈で見つけていたのが、EyeSeeCamというやつで、これは臨床系の人の研究用のものなのだけれど、まあムービー(vimeo)を見れば一目瞭然で、ヘッドマウント式のeye tracker (600Hz)の入力で、頭の上に載っているgaze cameraがピエゾアクチュエーターで動いて、リアルタイムで実際見ているところを追っかけるというわけです。Gaze cameraの応答潜時は10ms。我々が目をすばやく動かして(急速眼球運動、サッカードという)から止めるまでにかかる時間は20-30msとかだから、かなりイイ線いってる。作成してる人もVORとかの応答に使ったりしてる。サッカード中の視覚は抑制されているわけで(サッカード中の知覚安定性のスレッド参照)、saccadic suppressionの実験と組み合わせることが出来るんではないかとか、すごく面白い。
でもって、ここでやっていることはわたしがやろうとしていることにけっこう関連している。(いま気づいたけど、アイデアの元は全部このブログにすでに書いてあって、それの組み合わせだった。)
もうすこしくわしく調べてみよう。まず公開されている資料としては、フライヤーにリンクが張ってある。そこをみると、左右の目にeye cameraを付けていて、600Hzで記録して眼球の3Dでの位置まで推定できる。(torsionも計算される。) 精度は0.5degある。MacBookに繋いでる。解析ソフトについての記載無し。かれらはこれを売り出そうとしているようだけど、いまのところcommercially availableではない。
さらに詳しい情報を知ろうとすると商業誌を読まないといけない。(ちなみにここまでのすべての情報は英語さえ読めれば誰でもアクセスできるようになっている。なお、COGAINのサイトではgazetalkなどのソフトウェアの日本語訳などにアクセスできる。) 元ネタとなる論文はAnn N Y Acad Sci. 2009 May;1164:461-7. "EyeSeeCam: an eye movement-driven head camera for the examination of natural visual exploration"でUniversity of Munich HospitalのSchneider Eという人がやっている仕事らしい。
論文を読むと、eye cameraとしては2006年のバージョンではPoint Grey社のFleaというのを使っていたと書いてある。これは100Hzで記録できる。IEEE1394a接続で400Mbps。レンズ抜きで3cm*3cm*3cm。Cマウントのレンズを付ける必要があるけど、レンズについての情報は無し。2009年バージョンでは使う画素数を減らして600Hzを達成したと書いてある。
(ちなみに現在ではこれの後継機種Flea2というのが出ていて、IEEE1394bになって、伝送速度は800Mbpsに上がっている。日本ではViewPLUSというところが取り扱いをしている。開発用のソフトウェアとかもセットになっていて、これはなかなか扱い良さそう。わたしが今作るとしたらこれを使うかな。)
Gaze camerおよびscene cameraはおなじくPoint Grey社のFirefly MVというやつで、696*480pixel, 60Hzで取り込める。
まだプロトタイプの段階なのだろうけど、共同研究はどんどん進んでいて、Einhäuser W et.al.(Philipps-University, MarburgのPeter Königら)の論文で同じ号に"Eye-head coordination during free exploration in human and cat."とか"Distinct Roles for Eye and Head Movements in Selecting Salient Image Parts during Natural Exploration"なんてのが出てる。ナヌ? Saliency? なんて思って調べてみれば、カルテクにいたときにLaurentと共著があった! "A bottom–up model of spatial attention predicts human error patterns in rapid scene recognition" つーかこの論文前に見たことあった! うわーい、なんか線がつながってきた!
だいたいこのへんまでかな。
Webで探していると、工学系の人がhuman-Computer Interactionのためにいろんなことをやってるのがたくさん出てきて、要はそういう人と組めばいいのだなと思う。もっと身近なところでニューロサイエンスの分野でも、理研の藤井さんのブログでゴーグル型のeye trackerの話が出ていたし、ATRの川人先生のところのヒューマノイドロボットDBではsaliency modelを組み込んでロボットの目を動かしている(とりあえずCBのときのproceedingsがここから落とせる)。というわけでこれから教わりに行きます。
今回のブログエントリは「わたしはこのくらいはサーべイしてありますよ」ということをそういう人たちに示すという目的もあったりする。(長いし。)
込み入った話をしてしまえば、なんらかの大きなお金をゲットしてから動くべきか、安価なプロトタイプを作って成果を見せてお金を取りに行くか、とかそういう話だったりする。(もうやめて!)
追記:いろいろ調べているときりがない。カメラ自体に脳的な画像処理的なモジュールを持たせてしまうみたいな方向で進んでいる人はいる。こちらも面白い。日本でも浜松ホトニクスでそういうインテリジェント ビジョンセンサがcommercially availableになっているのを見つけた。これはexitに近いところにあると思ってる。
追記2:ひとつ開示しておくべき情報があった。当ラボでは、マウスの眼球運動をvideo-oculographyによって240Hzで記録するという仕事があって("PC-based high-speed video-oculography for measuring rapid eye movements in mice")、カメラについてとかいろいろ情報はもらってます。


お勧めエントリ

  • 細胞外電極はなにを見ているか(1) 20080727 (2) リニューアル版 20081107
  • 総説 長期記憶の脳内メカニズム 20100909
  • 駒場講義2013 「意識の科学的研究 - 盲視を起点に」20130626
  • 駒場講義2012レジメ 意識と注意の脳内メカニズム(1) 注意 20121010 (2) 意識 20121011
  • 視覚、注意、言語で3*2の背側、腹側経路説 20140119
  • 脳科学辞典の項目書いた 「盲視」 20130407
  • 脳科学辞典の項目書いた 「気づき」 20130228
  • 脳科学辞典の項目書いた 「サリエンシー」 20121224
  • 脳科学辞典の項目書いた 「マイクロサッケード」 20121227
  • 盲視でおこる「なにかあるかんじ」 20110126
  • DKL色空間についてまとめ 20090113
  • 科学基礎論学会 秋の研究例会 ワークショップ「意識の神経科学と神経現象学」レジメ 20131102
  • ギャラガー&ザハヴィ『現象学的な心』合評会レジメ 20130628
  • Marrのrepresentationとprocessをベイトソン流に解釈する (1) 20100317 (2) 20100317
  • 半側空間無視と同名半盲とは区別できるか?(1) 20080220 (2) 半側空間無視の原因部位は? 20080221
  • MarrのVisionの最初と最後だけを読む 20071213

月別過去ログ


« 2009年11月 | 最新のページに戻る | 2010年01月 »