スキップしてメイン コンテンツに移動

投稿

5月, 2013の投稿を表示しています

VisualStudio2010からTeamFoundationServiceへの接続のために

Source管理のために、 VisualStudio2010からTeamFoundationServiceにつないでみた。 結論的にはすごく簡単で、 VS2010SP1を適用する KB2662296を適用する VS2010からTFSへ接続する ということだった。 が無駄に時間がかかったので、その過程をここに残す。 まずはさくっとつながるだろうと思って、 VS2010からTFSへ接続してみた(以下)ところ、 以下エラーが発生。 TF31002: この Team Foundation Server に接続できません: https://xxxxxxx.visualstudio.com/。 Team Foundation Server の URL: https://xxxxxxx.visualstudio.com/。 次の理由が考えられます: - Team Foundation Server の名前、ポート番号、またはプロトコルが正しくない。 - Team Foundation Server がオフライン状態である。 - パスワードが正しくないか、期限が切れている。 すばらしくもっともらしいメッセージなために軽く奔走させらたが、 Visual Studio 2010からTeam Foundation Service Previewを使う  を参考にさせてもらったところ、 Visual Studio 2010から接続する場合、KB2662296の適用が必要です。適用せずにVisual Studioの[チーム]-[Team Foundation Serverの接続]でTeam Fondation Service Previewへ接続しようとしてもエラーが発生します。 とのこと。 これだと思ってKBを ダウンロード して、実行すると、 今度は以下エラーが発生。 お使いのコンピュータは別の条件によって妨げられています・・・とのことなので、 記載されている参考のリンクへ。 非常に残念なことに英語のサイトで断念しようかと思ったが、 仕方が無いのでゆっくり読んでみたところ、 Verify that you have installed the latest Service Pack releas

欲しい!Next generation Kinect!!

ついに次世代Kinectが発表されました。 これまであった機能の強化として、 トラッキングできる人数が増えた 間接の向きまで判断できる 狭いところでも使えるようなった などもありますが、それ以上にこれまでになかった、 筋肉や力、重心なども測定可能 心拍数も測定可能 とあります。 (元ネタは こちら ) 心拍数も測定可能ってすごいな・・・。 どこまで何ができるんだ・・・。 想像していた測れる数値の枠から、 遥かに超えた範囲に本当にワクワク感を覚えた。 なんでそんなことができるんだろうっていうものっていいなって思う。 魔法みたいな科学はこれからももっと出てくるだろうし、 そんなときに自分もその中で提供できる側でいたい。 早くこれで開発してみたいな~。

やっぱり仮想世界より物理世界かな

Kinectでマウス操作するプログラムを作ってみた。 技術的にはさほど難しいことは特に無く、 ある程度わかっていればなんとなく作れる印象を持った。 実際に作って操作してみて、 想像以上に簡単に作れる。 200から300行もあれば十分動く。 作れる人が増えれば、良いアプリケーションが出てくる。 結果としてNUIは増えていくと思った。 大胆な動きをする操作感は消して悪くない。 細かい操作をすることよりも、 大きい操作を主としたものに向いていると感じる。 例えば家の電気のオンオフなどには使いやすいと思う。 LeapMotionなどのトレース精度の高いものを使うと、 また別の操作感を提供できると思う。 単純なマウス操作だけでも、 何も触れずに動かしているという行為がおもしろい。 動くおもちゃを作るだけでも売れる気がする。 小さい子には特にうけるんじゃないかな~。 と思った。 Kinect で制御可能なロボットを作れる学習キット「Kinect×教育用 LEGO Mindstorms セット」 上記Kinectで制御可能なロボットもすでに市販されているが、とにかく高い。 ちょっと試しに買って遊んでみるかってレベルではない、うーむ。 Arduinoとかと連携させたら動くものが作れるのかな。 画面で動くものもいいけど、やっぱり物理世界で動くっていのはしみるね。 Kinectで動かすラジコンみたいなものを作ってみたいな~。

Nomadはどこにいった?

坂井直樹さんのBlogに3Dディスプレイの内容が記載されていた。 ” ボールにプロジェクションし、複数のキューブにプロジェクションする事で、3Dディスプレイになっている。  ” Whitevoidと言うグループが手がけた作品らしい。 すごいかっこよくて、何より美しい。 昔読んだ論文や記事の3Dディスプレイを思い出した。 前後にディスプレイを高速移動させ、その動きにあわせて映像を出力するもの 体積型のディスプレイ  :これは Actuality Systems 社からでているらしい。 他にも Microvision社 のNomadを見て、すごい驚いたのを覚えている。 ” 米陸軍の精鋭部隊、Microvision製のHMDシステム「Nomad」を採用 ” 今ホームページ見るとNomadがない・・・。 あんなに夢のあるマシーンだったの、やめてしまったのだろうか。 陸軍とかで使えなかったのだろうか。 網膜上に直接LED照射だった気がするのだが、やはりいろんな無理があったのだろうか。 網膜上に直接照射はともかく、 ホログラム的な機能を持った安価で小型の3Dディスプレイもそのうちできるだろう。 近未来映画的なものがどんどん実現されていくな~。 そういやMITで開発された空中に照射するディスプレイとかどうなったんだろう?

ガン見検出

  自動販売機のマーケティング調査の一つして、 アイトラッキングの Tobbi社 の製品が使われているニュースを見た。 (画像はそのTobbi社のマーケティングの例より) ニュース内で生(?)で実施していた操作はうまくいっていなかったようだが、 おそらく目の開きが少ないとうまくトラッキングできないのではないだろうか。 製品が小型化されればPCやタブレットへの組み込みも可能だろう。 Googleグラスのような機器が発達してこれば、 やはり注視点の抽出をしたいと考える人が増えるのは必然だと思う。 これから伸びる分野の一つだと思う。 知らないうちに注視点の検出が可能になるということは、 ロンハーのホイホイガールを見ているかいないかみたいな検出は朝飯前になっちゃう。 と言うことは、世の中でチラ見が自動検出になり、困る男は死ぬほど出てくる。 ガン見してたらアウトまで観点に検出できてしまう。 チラ見モードに入るとモザイクがかかって、 ガン見検出されると完全に見えなくなる。 過ごしにくい世の中になっていくものだ。 もとい。 Kindleで本読んでいるときに、 最後の行になったら改ページを促すウィンドウが出るとか、 ウィンドウクリックは注視2秒固定で次のページへとか、 そういう視線による入力もできるようになってくるだろう、うんうん。