研究テーマ
1, 擬音を映し出す
2, ディスプレイ間を動き回るアニメーション
3, 影を動かす
Rosa? (2015-10-15 (木) 07:15:32)
You're the one with the brains here. I'm <a href="http://bnutsxkswlf.com">wahticng</a> for your posts.
Rakesh? (2015-10-15 (木) 07:14:03)
That <a href="http://zkrhqacww.com">adsesdres</a> several of my concerns actually.
Jake? (2015-10-14 (水) 16:11:52)
You're a real deep theknir. Thanks for sharing.
Dash? (2015-10-14 (水) 15:57:15)
Free info like this is an apple from the tree of kndgleowe. Sinful?
吉川和希 (2015-10-13 (火) 12:38:06)
[バイダルカ]
前回のゼミで細々と書き始めてしまった。
次回は、一行で簡単に書くこととアウトラインが1ページで見えるようにする。
・直したアウトライン
第1章 序論
・背景
文化財を展示ケースに置き、キャプションで説明するだけの展示から、プロジェクションマッピングを用いることで当時の様子を映し出すような拡張した展示を行える。
- プロジェクションマッピングについて
プロジェクションマッピングとは、プロジェクタを用いて投影するだけではなく, 投影する立体物に映像の貼り合わせることで行う映像表現技法である.
・目的
文化財(バイダルカ)の展示において、プロジェクションマッピングという表現方法を用いて新しい展示方法を行い、文化財という情報を鑑賞者に深く理解できるようにする。
第2章 バイダルカ
・バイダルカの概要
バイダルカとは、アリューシャン列島に居住していたアリュート達が発展させ、使用し ていたカヤックに対するロシア語名である.
第3章 バイダルカ・プロジェクションマッピング
・作品
バイダルカに音声解説と関連した内容の映像を投影するプロジェクションマッピングである。
・シーン解説
制作したシーンの解説
第4章 展示結果(事実)
・制作過程
2015 年 8 月 8 日と同月 23 日, 市立函館博物館第一展示室にて展示を行った. 博物館内の展示を鑑賞していた方が集まって鑑賞を行って頂いた.
・当日の様子(参加者の反響)
撮影していた当日の様子を記す
・実施後のアンケート結果
PJM 実施後に, 20 名に対してアンケートを行った. アンケート結果を集計し、図に示す.
(年配の方だけでなく、20代・30代の若い方もいた)
(「綺麗でしたか」「格好良かったですか」の質問で「あてはまる」以上に回答した方が80%以上)
(PJMを使ったイベントをまた見たいという質問は95%)
第5章 考察
バイダルカについてやアイヌの歴史への新たな発見をして頂けた.年配の方だけでなく、20代・30代の若い方もおり、新しい展示を行うことで文化財や歴史をより楽しめるようになると考えられる.
自分の思うこと(結果)
10月のアンケートで聞くことのピックアップ
第6章 展望
今後の課題
「ナレーションの音声が早くて聞き取りづらかった」との意見が大きかったので、そこを考慮した内容に変更することが必要であると考えられる.
[リバイバル展示の準備]
先生から3Dプリンターの使い方を教えて頂いた。
前の部分と後ろの部分の出力ができたので、サポート材を剥がす作業。(ハッチのところが難しい)
前の部分はくっつけられたので、後ろをくっつけ中です。
吉川和希 (2015-10-05 (月) 19:27:46)
9/29 Skypeにて出席
10/1 就活にて欠席
バイダルカ実施
想定していたよりも多くの人に見ていただけた。
遠方から来てくださった方も何人かいた。「また見たい」と言っていただけた方が大半でした。
「綺麗でしたか」「格好良かったか」の質問に対して、あてはまる以上に質しつけてくれた人が7割ほどいた。
夏休みにプログラムで文字に動きをつけることは出来なかった。
バイダルカの方にシフトしました。
論文形式でまずは報告書として書き始めた。
表紙と概要の部分はある程度記述し、目次と章立てと行っている。
課題として一行アウトラインの作成をする。
吉川和希 (2015-08-04 (火) 15:56:06)
7/28 出席
7/28 前期最終ゼミ
今後のプロジェクションマッピングの予定を確認した。いよいよ本番が迫ってきた。
その後個人報告。最近はバイダルカの動画制作に注力していたため、自分の研究の進捗は少なかった。
[夏休みの目標]
文字をプログラムで動かす(その後インタラクティブにする)
文字を動かす際の入力をどうするのかと最終的な落とし所を考察する。
[バイダルカ]
最終ゼミの後に修正事項の打ち合わせをした。
金曜日までに指摘のあった箇所の修正を行い、実際にミニチュア投影のテストを行った。
その後、自分なりに気になった箇所を修正し直した。
8/3に市立函館博物館で設置を行った。
吉川和希 (2015-07-27 (月) 22:27:56)
7/21 出席
7/23 出席
7/21
テーマ審査会実施。思ってたより発表の回転が早かったのでびっくりした。自分のプレゼンはまだまだだと感じたので、少しでもよくしていく。
その後、今後の予定の確認。
24日のミーティング時にバイダルカの実際の投影を見せることに。
[バイダルカ]
木雨曜日の段階でシーン3が完成して、途中までだったがミニチュアに投影したものを先生に一回見てもらった。MadMapper?の使い方も一通り教えて頂いた。
その後、音声も変だったのと統合をAfterEffects?でやっていたので、Premia Proで動画と音声の統合をし直した。
24日に実際に投影したが、まだシーン5、シーン6、シーン7が抜けていたのでその制作に取り掛かる。
シーン6、シーン7の第1版が完成した。新し作ってくれたナレーション付きBGMと書き出した動画の統合を行った。
[自分の研究(インタラクティブな動的タイポグラフィ)]
音声入力に凝らず、何かしらのアクションで文字を動かす処理ができるようにする(体の動きに合わせて文字が躍ったりなど)。なので、他の入力システムでも試してみたい。
活用できるようなシチュエーションを夏休み入る前に決めたい。
吉川和希 (2015-07-20 (月) 23:16:41)
7/14 出席
7/16 出席
7/14
2回目の1分プレゼンを行った。
黒薔薇の会
716
テーマ審査会への中間報告書の修正を行った。
目的をもう一度考え直し、今回は音声認識でインタラクティブに文字を動かすことで斬新な感覚を強めたりやライブ感を与えられるのではないかという目的でいくこととした。それに伴い、背景と先行研究も書き変え、プレゼン資料も変更した。
まだ実社会で使うシチュエーションがはっきり想定しきれないので今後も考えていく。音声入力にとらわれすぎていたのでまた別の入力のアプローチも考察する。
7/17 PJMミーティング
バイダルカ全体通して、投影テストを7/24に行うのでそれまでに動画の制作を一通り終える。
シーン1とシーン6に関しては有難く手伝ってくれるので、他3シーンなんとか頑張って作ります。
テーマ審査会の中間報告書とスライドをwebdavにアップに提出した。
[バイダルカ]
シーン2第一番の動画を制作した。
一度先生に見てもらい、指摘してもらったところを修正を行った。
現在シーン3の制作に取り掛かっている。
吉川和希 (2015-07-13 (月) 22:19:29)
7/7 出席
7/9 出席
7/7
今後の予定の確認
研究室メンバーで1プレゼンの練習をした.3人の先輩たちに比べて、全然話せなかった。
概要と手段しか書いておらず、背景や動機を盛り込めていなかった。音声認識でのテキストアニメーションをどんな場面で使うのか考えきれていなかったため目的が言えなかった。
7/9
バイダルカの寸法の動画制作をした。
OneDrive?にあげていただいた、寸法の動画を絵コンテを元にして作り始めた。AfterEffects?のテンプレートプロジェクトにに合わせて、寸法動画のスケールを設定した。寸法動画のスケールは60%でちょうどいい形となったが、第2ハッチと第3ハッチまでの長さ寸法のところで、ほとんど合わなかったので、そこはうまく調整して何とか合わせた。
目的を考えた。「文字」と「音声認識」のカテゴリーで分け、それぞれどこで使われているのかをポストイットに自分が思いつく限り出した(原田研のポストイットを借してもらいました)。各々、20個以上ほど出すことができ組み合わせられるものを考えた。幾つかアイディアを出した中で、一番自分の中でしっくりくるものを見つけた。
現状での目的: 「音声認識と文字表現を使って話を聞き流しいる人の気を向かせる」
ポストイットに書き出したことで前よりは整理がついたのでやって良かった。音声入力の後のアウトプットを文字に限定しすぎなくても良いかとも少し思った。
中間報告書の書くにあたって、問題設定・先行研究の部分が書きづらかった。参考文献探してみたが、「話を聞き流す人」に関する論文等が見つからず苦悩し、最終的に類似したものとして行き着いたのがコミュニケーションに関するものです(探し方が下手なのかもしれません)。かなりのこじつけ感が強いと感じた。
日曜日にバイダルカの寸法動画の制作の続きをした。ナレーションの方も撮っていただいたので、音声とタイミングを合わしつつ第1版として作り上げた。先生に見ていただいたので、ご指摘いただいた部分を調整します。
現状の目的で進めていくに当たって、音声認識操作が必要となるので、少しですが調べた。juliusを用いての方法だとRusberry Piを使用して行う方法とVimというものを使用する方法があった。今後もう少し調査していく。
[出たアイディア-音声を使ったもの-]
1, 話を聞き流している人の気を向かせる
2, 声量の発電機
3, 音声でテトリス
音声認識した文字をドット絵として出してテトリスのように消して遊ぶ
4, 音声でアバターを作る
太れ」と言ったら体格を横に広げる等
5, 感情ノート
普段の自分の話していること(独り言頻度や無意識の口癖がわかる)や仲間内でしゃべっている記録を残し、振り返る
6, 声塗り
地下やショッピングモールの長い通路に設置
7, 叫んでストレス発散するシステム(モヤモヤボックス)
箱状の中でモヤモヤを叫ぶと、奥のモニターに言葉がぽろっと落ちる
吉川和希 (2015-07-07 (火) 01:11:17)
6/30 出席
7/2 出席
6/30
今後の予定を確認した。
docomoAPIへのお問い合わせの回答が返ってききた。提供がAndroidとiOS, BrowserなっているのでProcessingには対応していないことがわかった。
julius音声認識の不確定さも面白いということだったので無理に正確さは求めなくて良いかなと感じたので今後はjuliusで進めていこうと思った。(さんちゃんが教えてくれた「コトバズーカ」で使われているGoogle Speech APIも少し試してみようと考えています。)
動機
発した言葉を普通に表示させるのは味気がないと感じた。意味を文字だけで表現している「Word as Image」や音声認識した言葉を飛ばす「コトバズーカ」を見て、発したの言葉を何かしらの動きに付け加えたら、かっこいいから面白いと感じた。また、文字のイメージや意味をつなげて動いているから面白いと感じた。
「発した言葉の持つイントネーションや感情、口調、動作や意図などを付加して表現することで、視覚でも言葉を楽しませる」
7/1
バイダルカを実際に投影させる場所に模した、ミニチュアを製作した。
投影も試してみた。
7/2
バイダルカ模型への投影の続きを行った。バイダルカのみしか合わせてなくパネルや先端部分を合わせていなかったので、なるべく合わさるよう試した。
最初はAfterEffects?側のレイアウトを動かして合わせてしまった。その後先生からのご指摘を受け、初期のレイアウトを崩さずMadMapper?側で素材ごとに四角などで切り抜き再度合わせ直した。投影したAfterEffects?のプロジェクトとレンダリングした動画、投影してみたときの様子の動画をOneDrive?へとアップした。
今度の課題として何か実装するというこ事でしたが、アイディアを出していくうちにだんだん自分で何が良いのかわからなくなってくる節があった。
現段階で出来ているものとしては、juliusで認識した言葉(不確定な認識も含む)を左から右に横流しに表示されるものになります。少しづつ自分の考えを簡単なものでもいいから実装していきたい。
吉川和希 (2015-06-30 (火) 10:55:27)
6/23 Skypeにて出席
6/25 就職活動により欠席
6/23
簡単に予定を確認した後、個人報告をした。
[docomoAPI]
APIコンソール(APIの実行を試すところ)に音声認識APIの項目がなく、提供がAndroid, iOS, BrowserとなっているのでProcessingでの使用は難しいと報告した。docomoAPIのサイト上でProcessingで使用可能なのかを問い合わせをし、対応待ちとも報告した。
[動機の部分]
キネティックタイポグラフィがどのようなものかを調べて考えてみた動機
・言葉・文字からなる動作や意図などを、それのみでストーリー性を持たせ表現することで言葉や文字への理解度を深める。
→ 目に訴えかけるため、感覚的に伝えることができる。(言葉が通じない相手でも) コミュニケーションの一つになるのではないか。
・感情や口調も表現することが可能となるので音声認識と上手く絡ませることが出来るのではないか。
上記のように発表した。しかしこれではキネティックタイポグラフィをすること自体が目的になってしまっていて、キネティックタイポグラフィはあくまでも手段の一つだとご指摘を受けた。
音声がすでにあるので聴覚だけでなく、視覚にも訴えかけられる。発生者のイントネーションや感情も表示させる文字に付け加えられるのではないか。
もう少し考えてみることとなった。
[ゼミの後に考えたこと]
音声(聴覚) → 文字表現、キネティックタイポグラフィ(視覚)
感情、口調や動作、意図、イントネーション、
音量
↑
ストーリー性
・方言 (方言を正規表現に直す)
・デジタルディバイド(若者と高齢者の言語表現の格差を埋める)
・かっこいいから、面白そうだから
・その文字自体は読めるけど、意味がよくわからないという体験があるから。(使
い方や漢字が間違っていることがあった)
・同訓異義語や類義語、知っていても意味や使いどころがわからない・間違って
使う(違う語や熟語)
・Ocean, sea(漢字でいう同義語)など意味が同じだけど使いどころが違うもの
↓
発話をしたものを、動かすことで聴覚だけでなく視覚にも訴えかけられる。
↓
意味付けと文字を一体化させて、一脈のつながりを作ること(ストーリー性も加えて)で納得度を上げる。なんらかの補助なしで感覚的に理解させられる。
docomoAPI
Processingでの使用はできないので、もし使うならWeb上に切り替えて音声認識を使うことになる。 今からWebに切り替えるよりは、扱いがわかっているjuliusを使った方がいいと感じた。はっきり発音すればある程度の読み取ってくれるのと、先生も仰っていたがへんてこな認識でもありだとも思った。
問い合わせの回答がきました。提供の関係上やはりProcessingは未対応でした。
さんちゃんからコトバズーカとそれに使用しているGoogke Speech APIについての記事を教えてもらったので、現在試してみようかという最中です。
動機
動機として「意味付けと文字を一体化させて、一脈のつながりを作ること(ストーリー性も加えて)で納得度を上げる。なんらかの補助なしで感覚的に理解させられる。」のように考えていますとやっしーさんと話した。
もっとシンプルな動機でいいというアドバイスを頂いた。(かっこいいや面白いと思ったから)
現状の動機
発した言葉をただ表示するだけではつまらないと思い、生音声の言葉を何かしらの動きに付け加えたら面白いと感じたから(コトバズーカやWord as Imageなどを見て)。
Word as Imegeのように言葉にその言葉の意味を動きとして付け加えたとき、入力として音声認識を介す必要がないのかなとふと感じた。コトバズーカのような動きの表現の仕方の方が、音声認識を使う効果が大きいとも感じていて、言葉の出し方に悩み始めてしまった。
吉川和希 (2015-06-22 (月) 17:44:05)
6/16 出席
6/18 就職活動により欠席
6/16
予定の確認の後、進捗報告。
docomoAPIは色々調べたが参考になるものがなかった。人に聞いたりもしてみたが現時点では出来なかったと報告した。
文字から受けるイメージを認識した文字列で、表現したものを作成した。文字の意味などをその文字自体で表現できたら面白いと感じた。しかし、自分がどうして言葉をアニメーションさせて動かしたいのか?ところが明確になっていなかった。
原田先生からキネティックタイポグラフィ、モーションタイポグラフィなどのキーワードを教えていただいた。「漢字の感字」などの面白い参考書も紹介していただいた。
今度やることとしては、引き続きdocomoAPIが使えるのかを調査する。キネティックタイポグラフィを調べてなぜ言葉を動かしたいのかという動機を探ることとなった。
ゼミのあと、ポリッドスクリーンをゆーくん、やっしーさん、まっちゃん、おだしと一緒に一台組み立てた。思っていたより大きかったのでビックリした。
6/19
プロジェクションマッピング関係のミーティングを行った。Skypeで参加した。
ナレーションと作画のオーディションをすることになった。
自分は動画監督に就任されました。動画制作頑張りたい。洛中洛外図の切り抜きの担当も割り振られた。
docomoAPIの調査
FUETREKとNTTアイティの2種類あるのだが、どちらも提供がAndroidとiOS(NTTアイティはBrowserもあり)であるためProcessingでの使用はできないのではないか....?と詳しそうな人にに相談したら言われた。ちょっとそこら辺ははどうなのかわからないので、金曜日にDocomo Developer Supportのほうにメールでの問い合わせをしました。未だ返事が来ません。
キネティックタイポグラフィの調査
「キネティック タイポグラフィ」は動きで文字列に「言葉の意味」を超えた「魂」を吹き込む演出方法。
映し出されるもの自身は文字列には変わりはないが、文字に時間軸を与えることで、送り手の感情、口調、意図するものという情報をも伝達しようとする。
本来「文字列の内容」そのものしか表現し得ないはずの文字列に視覚の表現や時間の流れをビジュアル化する、口調や動作、感情を描く、さらにはリズムなども盛り込むことで、イメージを付加させる。
このようなことが多く書かれていることがわかった。感情を描く、口調や動作、意図、リズムなども盛り込むことで、イメージを付加するという点が「なぜ動かしたいのか」の糸口になるのではないかと思った。
吉川和希 (2015-06-15 (月) 18:59:53)
6/9(火) 出席
6/11(木) 出席
6/9(火)
今後の予定を確認し、活動報告を行った。
Processingとjulius音声認識を連携させて、テキスト表示等の何らかのアクションは出来きたが、これにminimライブラリも使用して音量も同時に反応させることは出来なかったと報告した。
自分の考えとして自分の中でもまとまっていなかったため、先生の思い描いていたもの(ギャートルズみたいなの)と若干の相違が生まれてしまった。音声認識を使ってみて自分でも楽しいとは感じた。
音声認識を使ってどうしたいのかというのが見えなかったので、自分なりのこだわりを加えた作品を作るという課題を頂いた。
6/11(木)
docomoAPIに挑戦した。
docomoAPIを使用できるようにするためにdocomo developer supportのサイトで開発者アカウントに登録した。記入事項を記入した後、API利用申請を行った。ProcesiingにてAPIを使ってみようとし、自分なりに調べたがProcessingdocomoAPIという組み合わせがなかった。調べてみたが自分だけじゃできそうなかったので、他の人に聞いてみたりしてみたが出来なかった。
一旦、docomoAPIは中断してjuliusのほうで何か作ることにした。色々ラフでアイディアを模索してみて現在取り組んでいる段階です。
吉川和希 (2015-06-08 (月) 10:48:35)
6/2 学会のためゼミお休み
6/4 東京での就職活動のため欠席
・Processing言語 + julius音声認識
Processingとの連携をするためには、juliusをモジュールモードで起動する必要があると調べてみて分かった。文章だけの説明しかなかったので何を言っているのかよくわからなかった。
他で調べてみたところターミナルでjulius.dSYM -C fast.jconf -charconv EUC-JP UTF-8という通常起動させるコマンドの後ろに-moduleと加えて実行するとモジュールモードとして起動できることがわかった。
Processingのほうでもjuliusと連携させるためのコードを書き実行することで、Processing上で音声認識の結果を表示することができた。if文で指定した文字列と認識した音声があっていればテキストを表示させるといったコード(if(tmpword.indexOf("文字列")!=-1))を書き音声認識でのテキスト表示は出来ました。
音量での変化も加えるためminimライブラリを使用し、先ほどのif文に指定する音量以上であるならという条件を加えて実行したところ表示が困難になった。反応しないで表示されないことが多く、たまに反応して表示されることがある(音声認識上の結果は問題ないです)。
音量の入力値をprintで表示させ確認しつつ行ってみた。if文で指定した音量以下の場合は表示された。指定した音量以上の場合では、入力値は条件を超えているのにまったく反応しなかった(ごく稀に反応したときがあった)。現在この問題を解決中するため奮闘中です。
吉川和希 (2015-06-01 (月) 18:48:31)
5/26 出席
5/28 出席
5/26
今後の予定を確認した後、先週の活動報告を行った。
・Processingのminimライブラリを使用して、音量に応じたテキスト表示
・バイダルカのPJMの第2弾を実際に見せた
Processingのminimライブラリを使い、macの内蔵マイクから音に反応させてテキスト表示を行った。音量でテキストサイズを変えて表示させた。
バイダルカのほうは最後の波でしなるところを間違えて捉えてしまっていた。実際には船全体がしなる感じであった。エフェクトとしてはワープエフェクトをかければ近いものとなったと思いました。
バイダルカの前と後ろは漕ぐ人で、真ん中の人は武器を持った人が乗る。客が中で寝転がって乗ったりしている。先端の二股の理由などのお話を先生から聞けた。
バイダルカは一応、一区切りをつける形となり、juliusという音声認識システムをProcessingで連携させて、テキストを表示させる。音量によってテキストサイズも変える。
5/26
Mac OSにjuliusのインストールを行った。内蔵マイクではできないらしくportaudioというのも同時にインストールした。ターミナルで色々設定を行うらしく、julius本体のインストールと起動までは調べた通りに出来た。ディクテーション実行キットというものもインストールはしなければいけないとのことなので、インストールはしたがエラーで実行が出来なかった。何度か解決法を試したが結局実行は出来なかった。
その後、最初から全部やり直して、別のサイトの方法を試して実行してみたところ問題なく実行でき、ターミナル上での音声認識が出来た。
openFrameWorks?をインストールして、影のやつの参考として、まっちゃんの赤外線カメラの手伝いながら、どんな感じでやるのかを把握した。
吉川和希 (2015-05-25 (月) 11:46:40)
5/19 出席
5/21 出席
5/19
今後の予定の確認。各自の報告を行った。
自分はバイダルカのプロジェクションマッピングを1階の研究室で皆に見せた。波の演出をバイダルカの下の方につけたのだが、ナンセンスな感じとなった。今回は斜めから投影して影ができてしまっていたので次は真上からの投影をすることとなった。
先生からいただいたバイダルカの骨組みのpsdファイルとある程度トレースしてあるファイルを頂いたので、それを元に骨組みの部分のパス取りをしてAfterEffects?での動画制作をすることとなった。波がぶつかってきたときにバイダルカの骨組みは衝撃を吸収するためしなるのでその演出も加える。
テーマ再審査会
「擬音を映し出す」
音を認識してその擬音を映し出す。音がなくて擬音がつくものもあるのでそれはモーションキャプチャーで行おうと考えている。
「ディスプレイ間を動き回るアニメーション」
PJMでディスプレイ間で動き回るような演出をやるならOK
「影を動かす」
後ろに写っている影をインタラクティブに動かす。
投票の結果、この3テーマに絞られました。
その他出した案(ボツ)
・けんけんぱ
パネルをけんぱで踏んでいくゲーム
・ループのホラー空間
通路いっぱいにPJMマッピングする。
・搭乗空間の再現
円の1/4空間の中にPJMで搭乗機の内装を映し出す
・文字から世界を作る
書いた文字が絵に変化していきアニメーションをする
・ハジキストライク
弾く系のアナログゲーム(おはじきとか消しピン)に上からエフェクトの投影する
擬音のテーマでかとしょさんが以前似たようなものをやっていたのでそれを教えてもらうということとなった。かとしょさんはUnityとモーションキャプチャでやっていたらしい。
5/21
かとしょさんに軽く使い方だけ説明していただいた。
プログラムのほうでのエラーはないもののモーションキャプチャでオブジェクトとして認識しているものをぶつけても何もアクションが起こらなかった。
ぶつかったらオブジェクトが消える動作も反応しなかった。考えられることとしたら認識しているオブジェクトがしっかりぶつかってないことくらい?
そこらへんは次かとしょさんに付きっ切りで教えてもらおうと思った。
バイダルカの骨組みのパスを作った。
ちょうどやり終わった後に先生にレビューしていただいて、骨の太さが3種類あるのがわかった。その骨の太さの統一するため修正をした。
Processingのminimライブラリで簡易なものだが、音の音量に応じてテキスト表示をさせることが出来た。
吉川和希 (2015-05-18 (月) 10:08:19)
5/12 出席
5/14 出席
5/12
今後の予定の確認をした。その後、各自ゴールデンウィークにやってきたことの報告を行った。
自分はドクロのプロジェクションマッピングを喋らせるエフェクトを追加させ、実際にみんなに見せた。しかし、自分のPCがAfterEffects?有効期限切れのため元データでのマッピングを見せることができなかった(今後は気をつけます)。映す物体の紙粘土を後から作成したので、マスクの部分がイマイチになってしまったので次からは改善します。
テーマ講評会を行った。
自分は5個しか出すことができず、テーマの多数決も4を越すものがなかったので次回のゼミまでに再度考えてくることとなった。他の二人は面白そうなアイディアを出していたのですごいと感じました。
5/14
テーマを再度考えた。
火曜日のゼミで先生に言われた自分だったらどうするかを頭に入れて、テーマになりそうな題材を考えた。一応新たに5個アイディアを考えることが出来ました。他にもアイディアになりそうなものをどんどん出していきたいと思います。
原田研スペースにデスクトップを移動した。
吉川和希 (2015-05-11 (月) 11:51:13)
5/4~5/6 ゴールデンウィーク
ゴールデンウィークの前半
前回に引き続き、ドクロのプロジェクションマッピングの動画制作に取り組みました。試しの音声ファイルで喋らせる動きをしていたので、次回ゼミ用に見せるための音声ファイルを使いLip-Syncで音声とともにドクロの口を動かしました。
喋るエフェクトの前に線模様を描いているようなエフェクトと「カタカタカタ」という効果音に合わせて歯をぶつけ合うようなエフェクトを追加しました。
Lip-Syncでの口の動きが少しぎこちない感じであったので、自分でそのセリフを言っている様子を写真に撮りそれに似せて口の動きを調整しました。
ゴールデンウィーク後半
企業からのウUnity開発課題を頂いたのでそれに取り掛かっていた。使い方やコードの書き方などままならなかったため一つ一つの処理を実装するのに時間が掛かってしまった。形になり始めたのは、5/7の木曜日あたりからです。
5/7 月曜授業
Unity課題に取り組んでいました。
ようやくゲーム機能を実装することができ、勝利判定機能も付けることができた。この2つが今回の課題の必須項目であったので実装することができて一先ず良かったです。あとはプラスアルファで別の機能の実装に取り掛かりました(リセット機能、中断/再開機能、トップ画面等)。
5/8 CG-ART協会セミナー in 札幌
まっちゃんの車に乗り日帰りで札幌に行きました。
松浦裕暁さん(3社くらいのアニメ制作会社の代表取締役、「頭文字D」CGクリエイティブプロヂューサー)からアニメCGの制作工程を説明していただきました。
モデリングワークフロー
1.設定、デザイン画、漫画絵の作成
2.モデリング
だいたい使うソフトは3DS-MAXかMaya
正面と横からのアングルのデザイン画を並べながら差が出ないようにポリゴンを調整していく
何回かのポリゴンチェックがあり、良ければ次の工程に進む
3.テクスチャ作業
目と髪をあとから調整しやすいように白黒でマスクとして作る。
キャラの表情集を作る(だいだい1キャラ70種~80種くらい)
髪の動きなどのモーフィングチェックを細かに行う
4.SCMS搭載(塗り分け)
SCMSというものを使ってキャラの色指定議をする。(朝や夜などの時のキャラの色変化を自動で行ってくれる)
5.リグ(Biped) + モーフィング
キャラに骨組みをつけて腕や足、服の揺れ、髪の毛の揺れ等の動きをなめらかになるように動かす。
6.リリース
アニメーションワークフロー
1.絵コンテ
2.レイアウト
3.背景原図
4.アニマテックス
5.色替え
6.セルルック
7.BG原図
ここで主に言っていたのが演出へのこだわりを持つこと。こだわった演出を実現させるためには、様々な細かい知識を持つことが大事だと言っていました(例えば、車の3Dアニメを作るとしたらタイヤの動きやアクセルの踏み方など細かい所の動きまで知ること)。
最後に簡単に制作ツールの紹介をしてもらいました。
株式会社Too(コピックペンなどを販売している会社)が提供するソフト
・AUTODESK 3DS-MAX 学生の時だけ無料で使える!
蒼き鋼のアルペシオ、アルドノア・ゼロ、エヴァンゲリオン等のCGに使われているソフト
キャラアニメーションや多足リグが可能
・AUTODESK MAYA
3DS-MAX他とのデータ交換が可能(逆も然り)。よく3DS-MAXとどちらにしようか迷うという人が多いが特にこだわらなくていい。
・Pencil +3(3DS-MAXのプラグイン)
線画関係のプラグイン。
・CelFX/CelMX/AntiAliasing?/ComicStyle?
After Effectsのプラグイン。
吉川和希 (2015-05-04 (月) 09:33:36)
4/28 出席
4/30 出席
4/28
最初に今後の日程を皆で確認した。5/9にScratch Day、5/29~6/2の人工知能学会のアルバイト、7/21の卒業研究テーマ審査会、金曜の飲み会などについてお知らせがあった。
その後一人一人先週やったことの報告を行った。
自分は紙粘土のドクロにマッピングしたときに撮影した動画を見せた。マスクに対しての理解が薄かったのでドクロの顔の部分だけでなく周りにも写ってしてしまっていたので、ドクロの輪郭部分のAiファイルをモード/スクリーンの覆い焼きこみカラーで型どれることがわかりましたた。
次回は実際にマッピングしているところを見せることと喋らせるという課題を頂いた。
スクリーン/覆い焼きこみカラーだと映す動画の色が消えてしまって白くなってしまった。ゼミを終えた後にゆうのすけくんからイラレで作成した輪郭をそのまま選択して、AfterEffects?にコピー&ペーストでマスクを自動的に生成するやり方を教えて貰いました。
最後に迎山研究室の3人でデスクトップの設置を行った。
4/29
Unityを独自で勉強していました。「Unityゲーム開発」という参考書を見てサンプルを作りながら学びました。内容としては"2Dゲームを開発する"ということで、最初の新規プロジェクト作成からシーンへの画像の配置や重ね順、2Dキャラの動かし方まで行いました。
4/30
マスクの作成はできたので、喋らせることに挑戦しました。調べてみたら発生しているタイミングに合わせて口を動かすLip-Syncというものがあることがわかりました。使用するのが初めてということで適当なフリーのボイス素材を使って喋らせることにしました。
Lip-Syncの使い方もある程度わかり実際に喋らせることができたので、次回のゼミで見せる用の作成に取り掛かり始めました。
吉川和希 (2015-04-26 (日) 14:44:22)
4/21 出席
4/23 出席
4/21
Tuttiで皆でお昼を頂いてから青年センターにて合同ゼミを行った。
skills(できること)、goals(目標)、worries(心配事)をそれぞれ事前に10個以上考えてきたものをポストイットに書き出しをして似通った内容のものをグループ化しまとめた。
自分が書き出したもの
[skill(できること)]
・Illustrator
・Photoshop
・unityを少し
・metaio ARを少し
・HTML
・CSS
・PHP少し
・MySQLでのデータベース作成少し
・cocos2D-xを少し経験がある
・Objective-Cの簡単なプログラム経験がある
・Github使用経験が少しある
・webサイト制作
・検索能力
・分析
・ブレイクダンス
・バレーボール
・卓球
・ソフトボール ピッチャー
[goal(目標)]
・自信を持って皆に見せることができるクオリティのプロジェクションマッピングをしたい ・卒論を作るとき直前に焦ってやらないようにする
・卒業研究をスムーズに行っていく
・自分のやりたいことを出来るだけ実現していきたい
・研究室である様々なイベントに出来る限り参加していくこと
・アニメーションの作成
・Unityでのゲーム制作
・ブレイクダンス上手くなる
・ウィンドミルの習得
・計画的に行動をする
・遅刻をしない
・期限を守る
・メールの連絡を怠らない
[worries(心配事)]
・テーマが決まるのか
・研究の仕方
・関連した文献の探し方
・卒業研究論文の書き方
・プロジェクションマッピングを上手くやっていけるかどうか
・After Effectsでの動画作成(マッピング用の)
・問題なく研究をやっていけるのか
・直前に焦ってやる節があるのでそうならしないことが出来るか(心掛けてはいます)
・妥協しないで最後までやりきれるか
・就職活動と平行して研究をこなしていけるのか
・何かまずいことをやらかさないか
・お金がなくなってきて心配
・文章能力
・ロードバイク盗まれないか
まとめとして、skills(できること)は大体の人がプログラミングとデザインが出来る。worries(心配事)は特に重大な心配事はなく、お金関係と時間が共通して書き出されていた。goals(目標)は最終的なゴールとなるものが少なかった。スキル習得系の目標が多かった。
次回までの課題としてドクロの動画を実際にプロジェクターで映してみる事となった。
4/22
迎山先生からプロジェクターを貸して頂いた。
4/23
投影する物体となるドクロ頭を熱心に紙粘土で、夜遅くまで制作していました。2回くらい作り直してました。
4/24
紙粘土ドクロにプロジェクターで動画を映してみた。MadMapper?というマッピングソフトのデモ版を使用しました。最初は、movに出力した動画をMadMapper?に読み込んでそれを紙粘土ドクロに合うように調整していました。途中からやりづらさを感じたので、別の方法を探したところSyphonプラグインというものを見つけました。AfterEffects?で操作をしながら、MadMapper?から映すことが出来るようになりました。先生からのアドバイスを頂いてそれっぽく出来たと思っています。
吉川和希 (2015-04-20 (月) 20:07:23)
4/14 欠席
企業の選考インターンで参加できませんでした。
自己紹介が出来なくて申し訳ございません。以後気を付けます。
4/16 出席
祐之介くんからwikiの使い方と次回のゼミについて教えてもらいました。
引き続きAfter Effectsでの動画作成に取り組みました。
この前作成した動画は、After Effectsのみで作成したものばかりだったので、Illustratorで作ったベクター画像を使った動画を作成することにしました。
まっちゃんがイラストをAfter Effectsで動かそうとしていたのに少し興味が湧いたので、自分でも挑戦してみようと思いました。