週報(12/03~12/09)

清野裕太 (2013-12-09 (月) 06:43:27)

12/03(火)出席
12/05(木)出席

・3Dスキャナー
手をまともにスキャン出来ない時点で、割りと使用状況が限られている気がする。
(後で追記)

・研究
FaceTracker?の処理が重く、プログラムのFPSが低くなってしまうため、動画再生も少しカクつく。
表現上、わりと致命的なので、FaceTracker?を使わず、Haarのパターン認識を使ったプログラムで、目だけを追跡する。


週報(11/26~12/02)

清野裕太 (2013-12-02 (月) 15:23:49)

11/26(火)出席
11/28(木)出席

・中間発表
フィードバックまとめ

- 不気味の谷を解決するために「今はとりあえず目だけをやっている」のか、「目だけで解決しようとしている」のか明記した方がわかりやすい
- 目以外の部分によってもかなり印象は変わると思う
- 目だけが妙にリアルでも逆に気持ち悪いかも
- プロジェクタによる投影だと、違和感が出るのではないか
- 対象ユーザは?

etc..

もちろん目以外の部分も作り込んだほうが良いが、今はとりあえず目だけに着目して研究を進める。
プロジェクタによる違和感は、極力明るさを揃えるなどして、違和感を減らす。
対象ユーザはコミュニケーションロボットとしてのヒューマノイド利用者。

・3Dスキャナー
スキャンしてみた結果、それ自体を単なるフィギュアとして出力する程度であれば十分な精度に見える。
しかし、そのモデルを利用して工業的レベルで精密にブーリアン等するには、エッジが出なかったり、どうしても不正確な部分が出てきてしまうため、大体のスケールを掴むぐらいにしか使えないように感じた。

トライアル版ではファイル出力のポリゴン数がかなり制限されていたため、他のソフトでのモデル調整は出来なかった。

・研究
OpenNIを使って、手の追跡は出来るようになったものの、頭の追跡が上手くいかない、距離によって認識精度が悪いなど、いくつか問題があるため
FaceTracker?TldTracker?を使って顔認識するようにした。(さっさとそっちに切り替えた方が早かった)
基本のシステムは出来たので、後はどんな反応をするか、どんな表現をするか、という部分を作りこんでいく。


週報(11/19~11/25)

清野裕太 (2013-11-25 (月) 09:56:37)

11/19(火)ゼミ休み
11/21(木)出席

・中間発表
自主ゼミの中で、中間発表の練習を行った。
まだ少しスムーズに説明が上手くいかない部分があるので、そこを練習する。


週報(11/12~11/18)

清野裕太 (2013-11-18 (月) 09:53:13)

11/12(火)出席
11/14(木)出席

・中間発表
中間発表のリハーサルを行った。
全体像(最終的な完成物)がどうなるのか分かりづらい、との事だったため
まとめの部分で全体像がわかるような説明を行う。

中間報告書は添削も終わり、提出済み。

・研究
3Dモデルデータを観察者に対応してプログラム上で動かすとなると、モーションデータや動画を
事前に用意する必要があるため、ある程度決まった数のパターンに当てはめて作らなければならない。
そのため、画面を格子状に区切って、観察者のいるブロック、ジェスチャーに応じたアクションを実装するのが現実的かもしれない。

この辺の実装は早く終わらせて、動きのブラッシュアップと評価実験をしたい。
ということでプログラム制作中。


週報(11/05~11/11)

清野裕太 (2013-11-12 (火) 12:30:46)

11/05(火)ゼミ休み
11/07(木)出席

!中間報告書の作成
!中間発表スライドの作成

中間報告書の作成と添削
自分以外の4人に見てもらって理解しづらい所や、細かいミスを指摘してもらった。
自分では説明したつもりになっている箇所でも、他人が読むと説明不足になっているなど、1人では気づけない問題に気付けて良かった。


週報(10/29~11/03)

清野裕太 (2013-11-04 (月) 23:51:22)

10/29(火)出席
11/03(木)出席

!中間報告書の作成
!中間発表スライドの作成

OpenCVとカメラを使って、視線入力(アイコンタクト)が出来ないかと調査した。
しかし、視線入力だけで一つの研究になるほどで、短期間で出来そうなものでは無いと判明したため、
「カメラに移る顔の座標」を認識するぐらいの緩い判定で実装する予定。

Kinectなどの機器を3Dスキャナーとして使う「Artec Studio」のテストを行った。
導入自体は簡単で、ソフト本体と、Xtionドライバーの更新程度。
使い方も、3Dスキャンを開始するのはワンボタンで可能。
ただ、普通にスキャンしてもかなりノイズや歪みが入ってまともな3Dデータにならないため、かなり丁寧にやる必要がありそう。


週報(10/22~10/28)

清野裕太 (2013-10-28 (月) 15:34:32)

10/22(火)出席
10/24(木)出席

Xtionの開発環境構築
OpenNI+NITE+openFrameworks
ソフトウェアのインストールと設定、パス通しをして、サンプルの動作確認まで終了。
モーションキャプチャーが出来るようになった。

実際使うに当たっては、Kinectや3Dモデルを使ったプログラミングの経験が無いため、要勉強。
また、使用用途についても、現段階では追視するぐらいしか思いつかず、いまいち面白く無いような。

XtionにはKinectのようなMicrosoft音声認識フレームワークが無いため、単純にマイクとしてしか使えない?


週報(10/15~10/21)

清野裕太 (2013-10-21 (月) 05:29:06)

10/15(火)出席
10/21(木)出席

現状の課題・作業内容

・単純に上下左右の運動をさせるだけでは不気味、運動曲線の調整をする
(実際の目の動きはかなり早く、瞬間的に移動しているように見える?)

・瞼が無いと表情を出すのが難しいため、瞼にスケルトンをバインドして、動作できるようにする。

・虹彩、艶のあるハイライトが無いと死んだ魚のような目になるため、マテリアルの設定を行う。

・アニメーションさせることを想定せずに顔の3Dモデルを作ったため、アニメーションさせやすいようリトポロジ(ポリゴンの再構成)する。

・瞬膜率など、参考になりそうな、視線に関する研究の調査


週報(10/08~10/14)

清野裕太 (2013-10-15 (火) 00:35:30)

10/08(火)出席
10/10(木)出席

10/08(火)
・不気味の谷を感じるヒューマノイド・人形の多くが、焦点の合わない、虚空を見ているような死んだ目をしている。
・目の表現が、不気味さを増長させている
という仮説に基いて、ヒューマノイドにおける視線表現のシミュレーションを行う。

人間の眼筋の動作に基づいた、自然な眼球運動を目指す。
制作ツールとしては、
ある程度自由に作ることの出来る3Dアニメーションツール(Maya等)
or
運動を数値的に表現することが出来るプログラム(Processing等)
を用いる。
現在の予定では、3Dアニメーションで完成物の動きを確認し、可能であればそれをプログラムで実装するという流れ。

10/10(木)
眼球運動の仕組みを調査。
・眼球の運動に働く筋は6つあり、それぞれ水平運動、上下運動、回旋運動に関わっている。
・眼球運動は、眼球の回旋点(眼軸上で角膜頂点より約13mm後方にある)を中心として3つの軸(「垂直軸」「水平軸」「矢状軸」)のまわりの運動からなる。

以上の事を踏まえ、3Dアニメーションを作る際の基準として
眼球の回旋点を中心として3つの軸を作り、そのまわり運動を実装する。

これは単なる仕組みの話であり、では実際はどのように動かすかという
不気味さを感じない視線表現(速度、向き、ため等)については、試作を重ねて検討を行う必要がある。


週報(10/01~10/07)

清野裕太 (2013-10-07 (月) 16:14:27)

10/01(火)出席
10/03(木)出席

10/01(火)
研究として、今後の方向性決め
「ヒューマノイドの不気味の谷を克服する眼球・視線表現の検討」

・残った少ない時間で、中途半端に全身像を作るぐらいなら、視線表現に絞って進める
・不気味の谷による不快感を超えた、興奮すら覚えるような視線表現


10/03(木)
論文の事も考え、不気味の谷の多くが、目により起因するものだという裏付け取りを行う。
実際に投影する素材は、シェーディング・ライティングの容易さから、3Dアニメーションで制作。
当面はプログラム的制御を考えずに、Maya等を用いて自由に制作する。
モーションを作るにあたって、演劇・歌舞伎・能などを参考にすると良いかもしれない。


週報(9/24~9/30)

清野裕太 (2013-09-27 (金) 16:34:31)

09/24(火)出席
09/26(木)出席

09/24(火)
頭部駆動系の実装が上手くいかず。
ボールジョイントで接続したドールアイを、針金で押し引きするという設計では、想定通りに眼球が動かない。
縦横方向の2自由度を実現せず、横方向だけの1自由度であれば動作が安定するものの、アイコンタクトのバリエーションに乏しくなってしまう。
また、とりあえず眼球だけをサーボモータに繋いで動かしてみたところ「不気味」という意見が挙がり、サーボモータでの表現に限界を感じた。

そのため、ハード面での実装から、プロジェクターによる映像での投影に方向転換する可能性が出てきた。


09/26(木)
実際にプロジェクターで目の動きの投影を試してみた。
結果、ハード的な動作を実現するよりも、不気味さはかなり緩和されたように感じた。
また、投影する映像に、プログラムなどでのソフト的制御ができるため、表現の自由度がかなり上がった。
画像認識やkinectを用いたインタラクション性を取り入れることも容易になった。

一方、問題もあり、プロジェクターの都合上、後頭部を開いておく必要があるために、「ハリボテ」のようになってしまう事が懸念される。


09/27(金)
義手プロジェクトの方に、InMoov?、3Dプリンター、モデリングソフト等の説明を行った。
モデリングと、3Dプリンターでの出力に意欲的で、cubeの様に安価な3Dプリンターを買うか、材料を用意して、uPrintを使用させてもらう様お願いするかもしれない、との事。
Maya,3DSMax,123Dなど、AutoDesk?の学生無料版モデリングソフトの紹介、uPrintで出力したものと、cubeで出力したものを見せて、精度の違いを確認してもらった。


週報(8/01~8/03)

清野裕太 (2013-08-05 (月) 13:36:29)

08/01(木)出席
08/03(土)札幌オープンラボ


08/01(木)
・夏休みの目標
頭部のハードウェア部分、駆動系を完成させる。(8月中)
│(進捗次第)
├ 頭部の動き、ソフトウェア部分を作りこむ
└ 体を作り始める

08/03(土)
・札幌オープンラボ
移動中にノートPCの液晶が割れるという悲劇が発生…

影に鳥や木が出現する展示、ロボット展示などを見てわかったのは
インタラクション性があった方が(特に子供に)うける、という事。
曲げセンサを持って行かなかったのはもったいなかった。

余裕があれば今作っている人形にも何らかのインタラクション性を取り入れたい。(顔を目で追う、など)


週報(7/25~7/30)

清野裕太 (2013-07-30 (火) 18:02:33)

07/25(木)出席
07/30(火)出席


07/25(木)
・人形
目の幅を確定しないと眼球周りの装置を作れないため、
顔のモデルを早急に完成させる。


07/30(火)
InMoov???
そろそろオープンラボに向けて手部分の整備をする。
外装の表面部分を出力して見栄えをよくする。

指の動きについては、小指と親指の動きが悪く、糸をきつく締めてもあまり変わらないので
解決方法がわからない。
また、おそらく電力不足のため、五本の指を同時に動かそうとすると、Arduinoが一瞬落ちる。
現状他に用意できる電源も無いため、五本指を同時に動かさないモーションを作ってなんとかする必要がある。

・人形
顔のモデルを仮完成。100%満足の理想の顔とは少し違うが、目の位置を取って、内装のモデルもほぼ完成。
残りは大きさ合わせ、微調整と、強度が心配な部分の補強、出力。


週報(7/18~7/23)

清野裕太 (2013-07-23 (火) 17:14:15)

07/18(木)出席
07/23(火)出席


07/18(木)
InMoov??
肘から先の出力中(20%完了)

・人形
首動作部分が仮完成
一応動作するものの、強度・安定性に問題があるためパーツに補強を加えて再度組み立てる。
材料節約のための肉抜きも行う。


07/16(火)
InMoov??
肘から先の出力中(30%完了)

・人形
眼球動作の機構がいまいち不明瞭だったので調べなおす。
明確に機構がわかるものが無かったので、若干不安なものの
ドールアイ、ボールジョイント、固めの針金があれば何とかなりそう。

自主ゼミでボールジョイントは固いかもしれない、との意見が出たため、
ドールアイに直接球状のものを嵌めれるようにする案もある。
または、プラモ用のボールジョイントを買ってやするか、3Dモデルで作って出力すれば大丈夫かも。


週報(7/11~7/16)

清野裕太 (2013-07-17 (水) 15:08:04)

07/11(木)出席
07/16(火)出席


07/11(木)
InMoov?
肘から先の出力中(20%完了)

・人形
サーボモータを注文したため、大きさがある程度決定。
ドールアイやウィッグの調達が楽なため、ボークス社スーパードルフィーの規格に大体合わせた大きさで作ろうと思う。
次週までの課題:首動作部分の完成


07/16(火)
InMoov?
モデリングベースからサポート材が剥離していて、造形に失敗したパーツが1パーツあった。
再出力するのも癪なので(もったいない)、レーザーカッターでも作れそうな形状のパーツはレーザーカッターで出来ないか画策中。

・人形
サーボモータが届いたので、CADで正確な寸法を取って、3Dモデルを調整。
首動作部分のパーツを出力中。
可動範囲を考えると、スーパードルフィーサイズより若干大きくなりそう。


週報(7/04~7/09)

清野裕太 (2013-07-10 (水) 06:31:48)

07/04(木)出席
07/09(火)欠席


07/04(木)
InMoov??
肘から先の出力

・人形
頭部と首の設計図を3Dで制作

目の高さを合わせるため、サーボモータの大きさによって全体の大きさが決定する。
眼球の動作、謎。硬い針金か何かで押し引きしてる?
→おそらく針金

瞼、眼球を動かす紐と干渉するため付けるのが難しい。
顔の中にいれるサーボモータの数が増えるのもネック。

サーボモータ買って、大きさを取ってから正確にハマるよう3Dモデルを調整
顔のモデル制作も進める。


07/09(火)
結婚式のため欠席


週報(6/27~7/02)

清野裕太 (2013-07-02 (火) 22:05:29)

06/27(木)出席
07/02(火)出席


06/27(木)
InMoov?
糸をきつく締めても指が十分に動かないのはなぜ。

・人形
人形において重要なパーツである顔に焦点を当てて、アイコンタクト・色気表現の追求
バックヤードを固めるために、参考図書を読む(予定)

とにかく早く動かしてみたいので、とりあえず、制作に入りたい。

眼球:サーボモータ2台+紐の2自由度
首:サーボモータ3台の3自由度
(瞼:半円型ものをサーボにくっつける?サーボ2台)

頭にサーボモータ7台入れる?
→結構大きくなりそう

サーボモータの選定
サーボに必要なトルク = 重心 × 距離 × 角度

外装は3Dプリンターで出力。除光液とサーフェイサー、(ラッカーパテ)で表面処理・塗装
体とかは石粉粘土で手作業してもいいかも。
サーボモーターを保持する台はレーザーカッターで切り出せそう。

設計図を3Dで作る。


07/02(火)
・自主ゼミ(各進捗報告)

InMoov?
ホーンに開けた穴の間隔が狭すぎて、糸を十分に引っ張れていないのが、指の動きが少ない原因だった。
電動ドリルで穴を開け直し、再度糸を通し直して解決。それでも多少動きが弱い指がある。
指先を閉じてしまうと後から調節出来なくなるため、保留にして、肘から先を出力していく。

・人形
顔〜首部分の草案3Dモデル制作中


週報(6/20~6/25)

清野裕太 (2013-06-25 (火) 23:39:43)

06/20(木)出席
06/25(火)出席


06/20(木)
InMoov??
ドリルで指の穴を開け直し、五本の指を組立。
糸をひと通り糸を通してモータを動作させてみるも、ホーンが予想以上に大きく
互いに干渉しあってまともに動かない。
そのせいでサーボモータも固定できないため、穴の開いた円形のホーンが必要。

土曜日のさきがけlab tourでは、とりあえず簡易的に固定できる2つのサーボで、2本の指を動かす。
入力装置には曲げセンサを使用。グローブに付けられればベストだったものの、曲げセンサの足を延長するコードが
無かったため、ブレッドボードに直刺し。
やはり実際に動くと面白く、オープンソース・3Dプリンターで作れるロボットアームとして、それなりの反応をいただけた。

06/25(火)
・自主ゼミ(各進捗報告)
InMoov??
穴の開いた円形のホーンが必要だったため、ピンバイスで頑張るも、手ではなかなか穴が開かなかった。
そこで、ちゃぼさんから電動ドリルを借りて穴開けを行った所、無事成功。救世主。
その後、サーボ固定のためにInMoov?の設計図にない穴をパーツに増やしたりして、干渉せずにサーボを固定できるようになった。
残る問題は、腕の組立て。ボルトで止める穴もなく、かっちりとハマるわけでもないので、どうやって腕部分をくっつけるのかが謎。

・人形
眼球運動は大体わかったものの、首の旋回運動はどうすれば再現できるのかまだわからない。


週報(6/13~6/18)

清野裕太 (2013-06-18 (火) 18:40:05)

06/13(木)出席
06/18(火)出席


06/13(木)
InMoov?
サポート材の溶解待ち
溶け次第、組み立てて動作確認

・人形
動かして何をさせるか?
→感情表現 コミュニケーション
→ペット・子供のような存在
→単純に球体関節人形の表現の幅を広げる(芸術性)

どうやって動かすか?現実的な話
全身を動かして二足歩行させるのは金銭的に困難
ロボット的に(眼球・首・腕)を動かす(先ず眼球)
歩行させないため足の表現も可能

→あやつり人形
あやつり人形の人間的な動き
操作部をデジタル制御
☓匠の動きを模倣するのが難しそう
☓ロボットと違って操作系が別にあるため、オールインワン感が無くて微妙
マリオネットインターフェースの論文を取得する

06/18(火)
・自主ゼミ(各進捗報告)
InMoov?
指の組立。指のネジを通す穴の大きさが結構バラバラなので、ドリルで軽く穴を開け直す必要がある部分も。
とりあえず小指〜手首を組み立てたので、サーボモータとArduinoを繋いで、指の動きをテストしてみる。
一応動くものの、可動範囲いっぱいに動かないのでホーンの位置調整が必要。
プログラムの方はチュートリアル動画を見るとpythonを使っていたが、Arduinoで実行。
シリアルモニターでキー入力する場合、いちいち送信ボタンを押さなくてはならないので面倒。


週報(6/07~6/11)

清野裕太 (2013-06-11 (火) 21:50:32)

06/07(木)出席
06/11(火)出席


06/07(木)
・自主ゼミ(各進捗報告)
InMoov?
手部分の出力完了
3Dプリンターの材料が無くなったため、交換

06/11(火)
・自主ゼミ(各進捗報告)
作って動かして、何をさせるかという点で
肩乗りロボット、接吻コミュニケーションロボット、自分を抱きしめるデバイス、尻ロボットSiriなど
面白いロボットをいくつか紹介してもらう。

→表情や動きで、ロボットに人間らしい意志表現をさせる
人間と親和的なコミュニケーションロボットをつくる
人間とコミュニケーションさせる
では、人間らしいとはどういう事か?など哲学的な問題

InMoov?
前腕部分の出力完了
前腕部分の残りはケーブルホルダーやアルディーノサポート、外装などの動作には影響しない小物類(後回し)
肘〜肩は一旦後回しにして、サポート材の除去が終わり次第、前腕部分を動かせるように組み立ててみる

電源について詳しく調べてみると、Power source: 6V 44A とありUSB給電だと足りない事が今更判明


週報(5/30~6/04)

清野裕太 (2013-06-04 (火) 21:04:22)

05/30(木)出席
06/04(火)出席


05/30(木)
・角薫研究室との合同ゼミ
自分の研究テーマについての発表を行った。
得られた意見
・動くものを作ったとして、それに何をさせるか?
・ロボットではなく、人形にするこだわりは?
…etc
基本的に、動いて、こちらに反応するようなものが作れればそれだけで
満足だったので、それに具体的に何をさせるか、という所まで考える。

あちらの研究室では、前年からの引き継ぎなどで、研究背景など、筋道立ったものが多いという印象。
せっかくの合同ゼミを行ったので、向こうの良い所や、研究の考え方、進め方などを、参考にしていきたい。


06/04(火)
・自主ゼミ(各進捗報告)
既存の二足歩行ロボットキットを買って分解、外装を3Dプリンターで設計し直せばとりあえず歩行する人形は作れるのではないか?
と思ったものの気軽に試せるお値段では無かったため躊躇中。

黒田節ロボット
http://www.rakuten.co.jp/grass-road/507141/852661/926782/
http://www.youtube.com/watch?v=_zV5Jcw9vjc

・Inmoov
手首部分の出力が終了、順次指パーツを出力中
肩までとなると、全部で大小50個ぐらいのパーツがあるため出力に結構時間がかかる。


週報(5/23~5/28)

清野裕太 (2013-05-28 (火) 19:07:54)

05/23(木)出席
05/28(火)出席


05/23(木)
・研究テーマアイディア出し

1. 人間とのコミュニケーションを実現する、動く球体関節人形ロボット
2. 二次元を三次元化する、触覚による絵画鑑賞支援
3. 3Dプリンターを用いた、オリジナルの形状に適応するアイテム製作

上記3つのテーマに仮決定。
他に考えたのは、ゲームのキャラクターメイキングのように簡易的に3Dモデルを制作し、それを
そのまま出力できるようなオリジナルフィギュア制作支援ツール、など


05/28(火)
・球体関節人形・オートマタの歴史
調査中
ハンス・ベルメール→四谷シモン・天野可淡・吉田良一へと日本独自の文化発展
四谷シモン作「機械仕掛の少女」「機械仕掛の少年」の一部は実際に動く作品

・Inmoov
ネジ捜索
STLファイルは揃っているため、パーツも順次プリント可能

・皆の研究テーマアイディア見せ合い


週報(5/16~5/21)

清野裕太 (2013-05-21 (火) 23:28:20)

05/16(木)出席
05/21(火)出席


05/16(木)
・ピタゴラ装置の発表
TAの予習とArduinoの学習を兼ねてピタゴラ装置の制作を行った。
一年生の時とは違い、制作に時間を多くかけなかったため、仮想と現実、特に現実部分のレール作りが甘く
まともに発表できなかったのが反省点。
時間との兼ね合いで、出来る限りの魅せ方を考える必要がある。

・真鍋大度氏の「顔」をテーマにしたメディアアート
顔の動きに対応してポリゴンが吸着する、というプログラム
インタラクティブアート。


05/21(火)
・Arduino互換機
Arduino小型化のため、互換機を作る。
電子回路について、ほとんど無知だったため、回路を組む段階でクエスチョンマークが大量に飛び出す。
もし研究で使用するなら、もう少し基礎の部分から勉強して理解しないと、応用出来なさそう。
アクセサリーレベルで小さく出来れば、色々と面白いことが出来る(?)


週報(5/09~5/14)

清野裕太 (2013-05-15 (水) 13:56:32)

05/09(木)出席
05/14(火)出席


05/09(木)
・英語勉強術
podcastやLingQの活用
ZBrushのフォーラムへの投稿、外人と英語のやり取りをする。

・仕事術
Evernote、omnifocusの活用
アイディアや良いと思ったものをストック、ネタ帳の作成。
上手くタスク管理をして、精神衛生を保つ。

05/14(火)

・プロジェクションマッピング
How to use madmapper
ソースとして動画を読み込み、投影部分のトリミング
投影対象に合わせた変形などができる。
ソフトの使い方が難解ではなく、シンプルで分かりやすい印象。
ミュージアムに行き、実際に壁やアクリル板、ヘッドフォン、ポスター、人の顔などへの投影を試していた。
アクリル板は光が拡散するのか、ピントが合っていないようなボケ方をしていた。

・ピタゴラ装置
面白い案が浮かばない。基本パーツは完成。
プラダンもスタイロフォームも、レーザーカッターで切れれば正確で楽なのに、という話をしていた。


週報(5/02~5/07)

清野裕太 (2013-05-07 (火) 19:53:35)

05/02(木)休講
05/07(火)出席


05/02(木)
Aruduinoの詰め替え作業と初回プロジェクト学習

05/07(火)
自主ゼミでは論文や先行研究などを見つつ、研究テーマ決めに関することについて
色々と話を聞いた。
次のゼミまでにはいくつか案を考えておきたい。

iPhoneカバーの装飾をモデリングをしようと、iPhoneカバーのSTLデータを落としてスカルプトしようとしたが、
極端な三角ポリゴンが多かったため綺麗に描けなかった。ZBrushの自動リトポだと上手くリトポロジーできなかったため、
手動でリトポするか、CADソフトで1から作る必要がある。


週報(4/25~4/30)

清野裕太 (2013-04-30 (火) 19:18:51)

04/25(木)出席
04/30(火)出席


04/25(木)
skills,goals,worriesについて書き出しを行った。
研究室全体で見ると、共通した心配毎などが挙げられたため、
英語や論文の書き方など、ゼミで学べると良いと思う。

uPrintでの3Dプリントを行った。
uPrintの基本的な使い方を学び、テストとして胸像を出力してみた。
サポート材が少し残ってしまったものの、概ね満足できる出力結果だった。
次は、服や髪など、薄くなる箇所が上手く出力できるようにモデル調整中。

04/30(火)
skills,goals,worriesについての報告書提出。

自主ゼミではプロジェクションマッピングの動画と動画編集ソフトの簡単な紹介をしてもらった。


週報(4/18~4/23)

清野裕太 (2013-04-23 (火) 23:53:26)

04/18(木)出席
04/23(火)出席


04/18(木)
自己紹介後半
色々と衝撃を受ける。
Perfumeのサンプルデータを改変し、リスを頭を乗せ、躍らせた。

04/23(火)
チャボさんから「Leap」という入力デバイスを、やっしーさんから富士通の新技術を紹介してもらった。
Leapは両手を用いた体感的なジェスチャーコントロールができ、
これをZBrushのようなソフトに応用して、現実で粘土をこねているような
感覚でデジタルスカルプトが出来ると、精緻な作業は出来ないにしても、楽しそう。

3Dプリンターの樹脂の出が悪いため、プラスツルーダーを分解して、掃除を行った。
モーターの樹脂押し出し部分は分解して直接掃除。
ヒーター・ノズル部分は分解すると復元が大変そうだったので、エアダスターを吹くだけ。
組み立てて出力してみると、最初はとても出が良かったものの、逆に、少し経つと樹脂が全く出なくなったため、再度分解し、ノズル部分の詰まりを確認。それを何回か繰り返す。
結局、何とか樹脂は出るようになったものの、出は悪いままで、出力しようとしても、動きに対して樹脂が足りてない状態。
手で強く樹脂を押し込むとそれなりに出てくるので、モーターが上手く樹脂を送り出せていないのが原因だと思う。
モーター部分を掃除してもすぐに噛み合わなくなる?解決策は未定
プラスツルーダーを分解したため、材料押し出し部分の仕組みはある程度理解できた。


週報(4/9~4/16)

清野裕太 (2013-04-17 (水) 08:05:11)

04/09(火)出席
04/11(木)出席
04/16(火)出席


04/09(火)
研究室前レイアウト変更・席決め

04/11(木)
wikiの使い方説明・自己紹介
3Dプリンターを動かすために、ReplicatorGを導入。サンプルデータの出力を試みた。
3Dプリンターとの接続、stlデータからgcodeの生成までは上手くいったものの、いざ出力してみると処理時間の計測から進まない。
最新版のReplicatorGだと、本体マザーボードのファームウェアは3.0以上推奨という警告が出ていたので
色々調べつつファームウェアのアップグレードを行うが、結果変わらず。

04/16(火)
openFrameworksの導入・perfumeモーションサンプルの動作確認
初音ミクにでもperfumeを踊ってもらおうと思い、ofxMMDという、MMD用のモデル・モーションデータをoFで読み込めるアドオンを導入
その他必要なアドオンも追加してサンプルをコンパイルしてみるも、エラー?単純に踊らせるだけならMMDや3dsmaxで動かしたほうが早いという事実に挫折しかける。
oFで動くBeautiful Modeler ( http://www.interactivefabrication.com/projects/beautiful-modeler/ )
が凄い面白そうなので動かしてみようと思うが、iPadはあってもMac環境が無いと無理そうなので断念

3Dプリンターは、基本的な動作確認の方法を教わる。
ReplicatorGのバージョンを落とし、driverの選択、skeinforgeの設定変更、gcode書き換えなど、色々いじった結果、サンプルの出力に成功…したものの
樹脂が押し出されなかったり、プレートに上手く吸着しなかったりと、本体の不調により綺麗には出力されなかった。
ソフト的には正常に動かせるようになったので、あとは本体のメンテナンスが必要。



トップ   新規 一覧 単語検索 最終更新   ヘルプ   最終更新のRSS