最近,何かと話題になることが多いお絵描きAI。ovelAIなんかは特に高品質なイラストを生成できますよね。今回はこのNovelAIを使用して,立ち絵を生成し,自力でLive2D化してみようと思います。
NovelAIでの立ち絵の生成
今回Live2D化するにあたって,全身が写っており,かつ正面を向いているイラストが欲しいのですが,プロンプト(呪文)だけでは難しいので,参考画像として以下の画像を渡してあげます。
この写真をもとにイラストを生成してもらいます。数多くの生成されたイラストの中で,一番良いなと思ったイラストがこちら。
この画像を自力でLive2D化していこうと思います。
しかしここから地獄を見ることになります・・・
地獄のパーツ分け
Live2Dは立体的に動いているように見せるために,イラストのパーツ(目,鼻,前髪,横髪など)一つ一つがすべて分かれています。今回生成したイラストは一枚絵なので,Live2D化するためには,パーツをそれぞれ分けなければいけません。私はGIMPという画像編集ソフトウェアを用いて,パーツ分けをしてみました。
しかし,これが想像以上に大変でした。目のパーツ分けをする場合,ただ目の部分を切り抜けばよいというわけではなく,まつげ,瞳,白目などさらに細かく分割しなければなりません。しかも,分割する前に隠れていた部分(前髪に隠れている額の部分,横髪に隠れている体の一部など)を自分で補ってあげないといけません。つまり,一枚絵の時点では見えなかった部分を自分で描かないといけないのです。
かなり時間がかかりましたが,何とかパーツ分けをすることができました。
地獄のモデリング
無事パーツ分けも終わり,あとはCubism Editorを用いてモデリングするだけです。しかし,これもなかなかに地獄でした・・・
そもそも私自身,Cubism Editorなんてものは使ったことがないので,使い方なんて全く分かりません。そこで,参考にしたのがこちら。この「【オススメ】Live2D Cubism 公式チュートリアル【使い方 解説】」という公式が出しているチュートリアルがあったため,こちらを参考にして作業を進めました。
作業自体はチュートリアル動画のおかげで簡単だったのですが,作業量が多く,そういった意味で地獄でした。あと,Live2Dモデルが横や上下の方向を向いたときのパーツ配置が難しいのなんの。元々正面を向いているイラストですから,いかに横を向いている風に見せられるか,大変でした。
本当は細かく作業の流れを書いておきたかったのですが,これを書いてしまうととても長くなってしまうので,今回は割愛させていただきます。
ついに完成!
というわけで,無事にモデリングも終わり,ついに完成です!
初めてにしては,うまく動いていると思います!
ところで,Live2D作ったはいいものの,使い道はあるんでしょうかね・・・?
使用予定はありません。ただの自己満です・・笑
というより,NovelAIで作成したイラストって,動画配信とかに使えるんですかね?