ふじさんのブログ

Studio Gotz

クラス順位最下位の土木科高専生のブログ

商用利用可!動画素材置き場(仮)

せっかく作ったものなので公開しちゃいます

 0. ライセンスについて

この記事内の動画素材は、全てオープンソースソフトウェア「Blender」「GIMP」にて作成したものです。

 

テクスチャは、全て自作かCC0のものを使用しており、著作権侵害には注意を払って作成してます。

 

この記事内の動画素材は、全て CC-BY-SA を条件に使用してください。商用利用可・クレジット必須・改変後は同じライセンスで配布。詳しくは下のリンクから。

 

クリエイティブ・コモンズ・ライセンス
この 作品 は クリエイティブ・コモンズ 表示 - 継承 4.0 国際 ライセンスの下に提供されています。

 1. 国旗

全てアルファチャンネル付き・png連番・ループ可。

mp4のプレビュー動画も入っています。

プレビュー

youtu.be

日本国旗
アメリカ国旗
イギリス国旗
中国国旗

 2. 炎

Comming Soon...

プレビュー

youtu.be

Blenderで有償の依頼を受けてみた話

私が2018年の間で依頼された案件についてまとめてみました。

Blender以外の依頼は除外しています。

依頼を受ける方法は?

結果から言うと「口コミ」が一番多く、20件中10件となっています。

f:id:fujisan14153:20190106170708p:plain

ここでいう「口コミ」とは、「私の依頼を受けた人」が「他人に私に依頼することを勧めた」と言う意味です。

私は依頼を受ける事を、ネット上では宣言していません。なので口コミが半数を占めたのだと思われます。

ココナラは「スキルを売り買い」という目的の「フリーマーケット」のようなものです。

TwitterはDMで直接来たものです。5件の依頼が来ましたが、3件はこちらからお断りしました(恐ろしい条件を突き付けてくるアレです)。

メールはYouTubeチャンネルに登録しておいたもので、動画を見たので~というやつです。

ここで宣伝「依頼、絶賛募集中!!非商用の場合は超割引します!!」

連絡先>>fujisan14153 @gmail. com<<(全角スペースを取り除いて下さい)

あと、映像関係者の方、アルバイトでも良いので働かせてください...

学校を退学して、絶賛路頭に迷っている最中です。

依頼の内容は?

f:id:fujisan14153:20190106173106p:plain

1位は「アニメ向け3Dコンポジット」です。

これは、イラストレーターが描いた背景素材を簡単に3Dモデル化し、立体的なカメラワークを実現する作業のことです。

自主制作をしている方、さらに某プロダクション様からも(下絵用ではありましたが)依頼を頂きました。

2位のアニメータ(以下略)は銃のモデリングの依頼でした。業界では「原画・動画」と呼ばれる職種の方です。

手書きアニメは、原画の人が動きの最初と最後の絵を描き、動画の人がその補間をする、という作業らしいのですが、ネットの写真だけでは補間作業が面倒なので、ぐりぐり動かせる参考モデルが欲しい!という依頼でした。

結果、納品物は「.blendファイル・.fbxファイル・Blenderとリグの取り扱い方法のPDF」になりました。

依頼主は誰?

f:id:fujisan14153:20190106182210p:plain

自主制作をしている方が40%を占めています。
(解説飽きた)

価格は?

このデータは非公開とさせていただきます。

平均して10,000円って感じですね。

価格のシステムとしては「作業予定日数×0.2万円」で算出し、製作を開始する前に提示します。

また「Twitterやブログで作業内容を公開する許可」と引き換えに割引する事もしています。

納品までの流れ

・依頼者からの連絡を受ける

・依頼内容を決定、見積提示(解像度・FPS・LoDなど)

・金額と納期の同意が得られ次第、制作が決定する

・企画書、絵コンテ、カメラのアニメーションデータ、コンセプトアート等をもらう(これは機密書類の場合が多いので、決定後にもらい、取り扱いも注意する)。

・制作
↓↑
・依頼者に制作状況を報告、フィードバックを得る。

・リグやモデルの仕様書(説明書)を作成する

・完成、納品

代金ってどうするの?

基本的には銀行振り込みです。自主制作の方の事情を考慮してAmazonギフトカードで、と言う事もありました。

実は自主制作の人で一度、納品後に代金を払われなかったことがありました。

それを機に、代金の支払いタイミングを「納品後」から「納品前の制作報告後」に変更しました。

動画が納品物だとすれば「動画にタイムコードとロゴを焼き付け」たり、「解像度を半分に」したり。

そうすることによって、代金の支払い後に完成品を渡せて、依頼側も納品前にクオリティーチェックを行う事ができるので、トラブルを防止することができます

最後に

最近ではアマチュアでも簡単に外注をしたり、受けたりできる時代になりました。

契約を守らない依頼者も少なくはなく「素材動画は10分まで」で契約したのに、平気で15分の素材を送って来た上、追加料金の見積もりに腹を立てて応じない人もいました。

また明らかに商用利用なのに、自分からはそれを申告しない人(制作料が割り増しになる為)もいました。

そういう人は切り捨ててきました。なぜなら私は企業ではないので、社会体を気にしなくていいからです。

特にお金が絡むと非常にトラブルになりやすく、契約・著作権などをはっきりさせたり、厳守しないと民事・刑事責任を負うこともあり得ます(要は裁判沙汰)。

ココナラは、税金や代金の支払いが非常にスムーズに行え、トラブルを心配せずに取引きできるのでお勧めです。

【2.8対応】Blender コンポジットノード辞典 - コンバーター

Blender コンポジットノード辞典 - ホーム に戻る

コンバーター

アルファ変換

入力された画像のアルファ設定を「プリマルチプライド」と「ストレート」に変換することができる

f:id:fujisan14153:20181221145412p:plain

  • 出力
    • 画像:変換後の画像を出力する
  • パラメータ
    • ストレートをプリマルチプライに:「ストレート→プリマルチプライ」と「プリマルチプライ→ストレート」を決める。
  • 入力
    • 画像:変換したい画像を入力する

カラーランプ

画像の色を、その画像の数値(輝度)を使って変更することができる。使用頻度は割と多い。

f:id:fujisan14153:20181221150140p:plain

  • 出力
    • 画像:変換後の画像を出力する
    • アルファ:変換後のアルファを出力する
  • パラメータ
    • RGB:色の補間方法を指定する。RGB・HSV・HSLがある。基本的には「RGBはカラーサークルを直線で結ぶ」「HSV・HSLはカラーサークルを円周に沿って結ぶ」性質があります
    • リニア:補間方法に使う「数式」を指定する。例えばRGBのリニアは直線で補間、イーズではS字曲線(3次曲線)で補間します。
    • カラーバンド:左端が0、右端が1を表す。バンド内のポイントは自由に追加・移動でき、色を変更することができる
    • 0:バンド内のポイント番号。0で最も左端のポイントを選択する。ポイント同士が近いときに役立つ。
    • 位置:選択中のポイントの位置を変更できる。
  • 入力
    • 係数:変換したい画像を入力する。白黒以外でもOK。

HSVA合成

H・S・V・Aの各チャンネルの数値マップを、一つの画像に合成する。

f:id:fujisan14153:20181221161230p:plain

  • 出力
    • 画像:合成後の画像を出力する
  • 入力
    • H・S・V・A:色相・彩度・明度・アルファのマップを入力する

RGBA合成

R・G・B・Aの各チャンネルの数値マップを、一つの画像に合成する。

f:id:fujisan14153:20181221161808p:plain

  • 出力
    • 画像:合成後の画像を出力する
  • 入力
    • R・G・B・A:赤・緑・青・アルファのマップを入力する

YCbCrA合成

Y・Cb・Cr・Aの各チャンネルの数値マップを、一つの画像に合成する。

f:id:fujisan14153:20181221162415p:plain

  • 出力
    • 画像:合成後の画像を出力する
  • パラメータ
    • ITU 601:「ITU 601・ITU 701・Jpeg」があり、それぞれ計算式が異なる。ITU 601はSDTV、ITU 701はHDTVに向けて作られた規格である。
  • 入力
    • Y・Cb・Cr・A:輝度・Cb・Cr・アルファのマップを入力する
  • 解説:YCbCrは「ビデオ信号」を記録するための方式。Yは輝度、Cbが青系統の色相・彩度、Crが赤系統の色相・彩度を表している。Yの輝度はHSVでの輝度とは違い、人間の目の特性に近い(≒ガンマ特性)ため、Yを操作することで通常の輝度よりも自然な明るさの補正を行うことができる。

VUVA合成

Y・U・V・Aの各チャンネルの数値マップを、一つの画像に合成する。

f:id:fujisan14153:20181221173436p:plain

  • 出力
    • 画像:合成後の画像を出力する
  • 入力
    • Y・U・V・A:Y・U・V・Aのマップを入力する

IDマスク

IDによってマスクを出力する。マテリアルIDやオブジェクトIDによって非常に正確なマスクを作れる。

f:id:fujisan14153:20181221164755p:plain

  • 出力
    • アルファ:結果のマスクを出力する。0が黒、1が白として出力され、白い部分が指定したID部分である。
  • パラメータ
    • インデックス:取り出したいIDの数値を入力する。例えば、車の窓のマテリアルのIDを2に設定しておけば、ここで2を入力すると窓の部分だけのマスクができる。
    • アンチエイリアス:結果のマスクにアンチエイリアシングを施すかどうか。
  • 入力
    • ID値:IDマップを入力する。大抵はレンダーレイヤーノードからの出力からつなぐ。

数式

各種数式を使って二つの画像やマップを合成できる。「カラー」カテゴリにある「ミックス」と同類だが、これは数値としての合成に使う。

f:id:fujisan14153:20181221170125p:plain

  • 出力
    • 値:合成後の数値(マップ)を出力する
  • パラメータ
    • 追加:追加のほかにも、大量の合成方法を選択できる。ここでは紹介しない。
    • 範囲制限:0~1の間に「クリッピング」する。ノーマライズとは違うので注意!
    • 値1:合成したい数値(マップ)を入力する
    • 値2:合成したい数値(マップ)を入力する

RGBからBWへ

カラー画像をモノクロに変換する。

f:id:fujisan14153:20181221171125p:plain

  • 出力
    • 値:白黒画像を出力する
  • 入力
    • 画像:変換したい画像を入力する

HSVA分離

画像を、H・S・V・Aの各チャンネルに分離する

f:id:fujisan14153:20181221171908p:plain

  • 出力
    • H・S・V・A:色相・彩度・輝度・アルファの各マップを出力する
  • 入力
    • 画像:分離したい画像を入力する

RGBA分離

画像を、R・G・B・Aの各チャンネルに分離する

f:id:fujisan14153:20181221172258p:plain

  • 出力
    • R・G・B・A:赤・緑・青・アルファの各マップを出力する
  • 入力
    • 画像:分離したい画像を入力する

YCbCrA分離

画像を、Y・Cb・Cr・Aの各チャンネルに分離する

f:id:fujisan14153:20181221172411p:plain

  • 出力
    • Y・Cb・Cr・A:Y・Cb・Cr・Aの各チャンネルに分離する
  • パラメータ
    • ITU 601:「ITU 601・ITU 701・Jpeg」があり、それぞれ計算式が異なる。ITU 601はSDTV、ITU 701はHDTVに向けて作られた規格である。
  • 入力
    • 画像:分離したい画像を入力する
  • 解説:YCbCrは「ビデオ信号」を記録するための方式。Yは輝度、Cbが青系統の色相・彩度、Crが赤系統の色相・彩度を表している。Yの輝度はHSVでの輝度とは違い、人間の目の特性に近い(≒ガンマ特性)ため、Yを操作することで通常の輝度よりも自然な明るさの補正を行うことができる。

YUVA分離

画像を、Y・U・V・Aの各チャンネルに分離する

f:id:fujisan14153:20181221173722p:plain

  • 出力
    • Y・U・V・A:Y・U・V・Aの各チャンネルに分離する
  • 入力
    • 画像:分離したい画像を入力する

アルファ設定

画像にアルファを設定したり、他のアルファマップに変更したりできる。

f:id:fujisan14153:20181221173937p:plain

  • 出力
    • 画像:アルファ設定済みの画像を出力する
  • 入力
    • 画像:アルファを変更したい画像を入力する
    • アルファ:数値を入力すると一定のアルファに、アルファマップを入力すると、そのアルファが適用される。

ビュースイッチ

ステレオの3D画像(青と赤のやつ)を作成するために、左右の画像を合成します。

f:id:fujisan14153:20181221174236p:plain

  • 出力
    • 画像:合成後の画像を出力する
  • 入力
    • 左:左目用の画像を入力する
    • 右:右目用の画像を入力する

【2.8対応】Blender コンポジットノード辞典 - カラー

Blender コンポジットノード辞典 - ホーム に戻る

カラー

アルファオーバー

アルファチャンネル付きの画像を背景画像に合成する。「画像をそのまま重ねる」イメージ。

f:id:fujisan14153:20181214135542p:plain

  • 注意:プリマルチプライド画像・ストレート画像については良く理解しておく必要があります。

超分かりやすいサイト↓
コンポジターに必要なアルファチャンネルの知識(前編) - コンポジゴク

  • 出力
    • 画像:合成後の画像を出力する
  • パラメータ
    • プレマルチプライ変換:入力画像にプリマルチプライ変換をしてから合成する
    • プリマルチ:プリマルチプライド・ストレート処理の割合。0でストレート、1でプリマルチプライド、その間はミックスされます(「プリマルチプライ変換」がオンになっている場合は0で5割ずつ、1でプリマルチプライド100%)。
  • 入力
    • 係数:合成する割合。0で背景のみ、1で通常の合成。基本いじらなくて良い
    • 画像1:背景画像
    • 画像2:前景となる「アルファチャンネルが含まれた」画像

輝度/コントラスト

画像全体の輝度・コントラストを調節できる。

f:id:fujisan14153:20181214135621p:plain

  • 出力
    • 画像:輝度/コントラスト補正済みの画像を出力する。
  • パラメータ
    • プレマルチプライ変換:入力画像をプレマルチプライド画像に変換してから補正する。
  • 入力
    • 画像:補正したい画像を入力する
    • 輝度:画像の明るさを補正する。輝度を1にする事は、画像の全ピクセルに0.01を加算することと同じ。
    • コントラスト:画像のコントラスト(輝度の分布)を補正する。コントラストを大きくする→画像の暗部は暗く、画像の明部は明るくする。

カラーバランス

主にカラーグレーディングに用いる。マスクを入力することでセカンダリーカラーグレーディングにも用いることができる(破綻しやすい)。

f:id:fujisan14153:20181214135647p:plain

  • 出力
    • 画像:補正済みの画像を出力する
  • パラメータ
    • 補正式:「リフト/ガンマ/ゲイン」と「オフセット/パワー/スロープ」の2つを切り替えられる。前者はカラーグレーディングで最もよく使われ、後者は撮影カメラのパラメーター修正(超複雑だよ!)に特化している。
    • リフト:画像の暗部を対象に補正を行う
    • ガンマ:画像の中間部を対象に補正を行う
    • ゲイン:画像の明部を対象に補正を行う

↓カラーグレーディングの例。「暗部を明るく・青っぽく」「明部を暗く・オレンジっぽく」調整。
f:id:fujisan14153:20181214214203p:plain

  • 入力
    • 係数:結果を反映させる度合い。1で完全に反映、0で元のまま。(マスク画像を入力すると、マスクの白い部分だけ効果が反映されるよ)
    • 画像:補正させたい画像を入力する。

色補正

カラーグレーディングに用いる。上項目の「カラーバランス」よりも詳細な補正ができる。

f:id:fujisan14153:20181214135713p:plain

  • 出力
    • 画像:補正済みの画像を出力する。
  • パラメータ
    • 赤・緑・青:各色に影響を与えるかどうか。赤だけ補正したいなら緑と青のチェックを外す。
    • マスター:すべての領域に影響がある
    • ハイライト・中間色・影:それぞれ明部・中間部・暗部に影響がある。
    • 彩度:各領域の「鮮やかさ」を調整する。彩度を低くする→白黒に近づいていく。
    • コントラスト:各領域のコントラストを調整する。コントラストが高い→明るい部分と暗い部分の差が大きい。
    • ガンマ・ゲイン・リフト:各領域の中間部・明部・暗部の「明るさ」を調整する。
    • 中間色開始:画像の影と中間色との境界を指定する(=「影」の幅)
    • 中間色終了:画像のハイライトと中間色との境界を指定する(=ハイライトの幅)。
  • 例えば:ハイライトのガンマを上げた→「画像の明るい部分」のさらに「中間部」が明るくなる。

・上級者向け:「ゲイン・ガンマ・リフト」と「ハイライト・中間色・影」の違いは?
「ゲイン・ガンマ・リフト」は「全てが影響し合う」
「ハイライト・中間色・影」は「お互いの領域に影響を与えない」
という違いがあります。

例えば「ゲイン」は「明るさが1(白)の部分で100%、0.5(明るさが半分)で50%、0(黒)の部分で0%」の影響を与えます。「リフト」はその逆です。
「ガンマ」は「明るさ1(白)の部分で0%、0.5(明るさが半分)で100%、0(黒)の部分で0%」の影響を与えます。
f:id:fujisan14153:20181214233628p:plain
グラフで分かるように「明るい部分だけ上げる」と思って「ゲイン」を上げても、中間部や暗部も少し明るくなってしまうのです。

そこで登場するのが「ハイライト・中間色・影」です!
「ハイライト・中間色・影」は影響の範囲がはっきり分かれています。
!画像準備中!
例えば、「ハイライトのガンマ」を上げても中間色と影にはほとんど影響しません(画像の破綻を防ぐために若干影響します)。

f:id:fujisan14153:20181216130210p:plain
ハイライト以外には影響せず、ガンマ特有の「始めと終わりは影響が0」がわかる。

ガンマ

画像全体にガンマ値を適用できる。画像の明るさ補正やリニアワークフローで用いる。

f:id:fujisan14153:20181214135740p:plain

  • 出力
    • 画像:補正済みの画像を出力する
  • 入力
    • 画像:補正したい画像を入力する
    • ガンマ:適用したいガンマ値を入力する
  • ガンマとは:ガンマ補正は 結果=入力^{\frac{1}{ガンマ値}} で表される特性曲線によってRGBの値を変化させることである。コンポジットでの利用目的は主に二つ。
    • 画像のクリッピング(白飛び・黒潰れ)を防ぎながら、画像の明るさを補正する。
      f:id:fujisan14153:20181216133841p:plain
      ガンマ側はディテールを保ったまま明るくなっているのが分かる
    • 画像にガンマ補正を「施す/取り除く」(リニアワークフローで検索!)。

色相補正

色相値で効果の範囲を指定し、色相・彩度・輝度の値を変化させることができる。例えば「画像中の緑の部分を明るくしたい」「赤の部分を緑っぽくしたい」といった事ができる。

f:id:fujisan14153:20181214135940p:plain

  • 出力
    • 画像:補正済みの画像を出力する
  • パラメータ
    • H・S・V:値を変化させるチャンネルを指定する
    • グラフ:横軸が色相、縦軸が各チャンネル(上で指定)の値を表している。

HSVとは?
Blenderで色を指定するときに出現するカラーパレットで考えてみましょう。
f:id:fujisan14153:20181216174349p:plain
色相(H)は「色み」を表しており、カラーパレットでいう円周です。赤・緑といった事を指定できます。
彩度(S)は「色の鮮やかさ」を表しており、カラーパレットでいう中心からの距離です。1で鮮やかな色、0で無彩色(白・黒)になります。
輝度(V)は「色の明るさ」を表しています。カラーパレットでいう右のスライダーです。0で黒になります。

HSV(色相/彩度/輝度)

画像全体の色相・彩度・輝度を補正できる。

f:id:fujisan14153:20181214135953p:plain

  • 出力
    • 画像:補正済みの画像を出力する
  • 入力
    • 画像:補正したい画像を入力する
    • 色相:画像中の全ピクセルの色相を変化させる。0と1は同じ結果になります(色相「環」を思い出してください)。
    • 値:一般的には「明度・輝度」と呼ばれます。画像の明るさです。
    • 係数:結果の影響の度合い。0で入力のまま、1で結果100%。マスクを入力すると、範囲を指定できます。

反転

画像のRGB値を反転させる。マスク範囲の反転にも使う。

f:id:fujisan14153:20181214140009p:plain

  • 出力
    • カラー:補正済みの画像を出力する
  • パラメータ
    • RGB:RBG値を反転させるときにチェックを入れます。マスク画像反転にも使います。
    • アルファ:アルファ値を反転させるときにチェックを入れます。
  • 入力
    • 係数:結果の影響の度合い。0で入力のまま、1で結果100%。マスク入力で、効果範囲を指定できます。
    • カラー:補正したい画像を入力する

ミックス

2つの画像の合成を行うノード。ミックス以外にも様々な合成方式がある。

f:id:fujisan14153:20181214140021p:plain

  • 出力
    • カラー:結果の画像を出力する。
  • パラメータ
    • ミックス:合成方式を切り替える。ミックス以外にも17の方式があるが、ここでは省略する。代表的なものをまとめた私の記事はこちら。となりのボタンは、アルファ値も合成に含めるかを決める。
    • 範囲制限:画像を合成していくと、値が1や0を越えてしまうことがあり(特にマスク合成)、不自然な結果になることがある。範囲制限は値を0~1にクリッピングすることで、破綻を防ぐことができる。(ノーマライズでは無いので注意!)
  • 入力
    • 係数:結果の影響の度合い。0で入力のまま、1で結果100%。マスク入力で、効果範囲を指定できます。
    • 画像1:合成結果の背景になる画像を入力する
    • 画像2:合成結果の前景になる画像を入力する

RGBカーブ

各色チャンネルの値を、カーブを使って変化させることができる。

f:id:fujisan14153:20181214140036p:plain

  • 出力
    • 画像:変化後の画像を出力する
  • パラメータ
    • C・R・G・B:Cは全て、RGBは赤・緑・青のチャンネル。
    • カーブ:横軸は入力・縦軸は出力を表している。
  • 入力
    • 係数:結果の影響の度合い。0で入力のまま、1で結果100%。マスク入力で、効果範囲を指定できます。
    • 画像:補正したい画像を入力する
    • 黒レベル:グラフ横軸(入力)の始まりの値を指定できる
    • 白レベル:グラフ横軸(入力)の終わりの値を指定できる

f:id:fujisan14153:20181216193210p:plain
画像を暗くする使い方。入力値が0.5の時、結果を0.25にしている。

トーンマップ

ハイダイナミックレンジ画像(HDRI)を普通の画像に変換するノード。

f:id:fujisan14153:20181214140046p:plain

  • 出力
    • 画像:変換後の画像を出力する
  • パラメータ
    • R/D光受容体:「R/D光受容体」と「Rhシンプル」に切り替えられる。
  • R/D光受容体
    • 強度:変換後の画像の明るさを決める。マイナスで暗く、プラスで明るくする。
    • コントラスト:変換後の画像のコントラストを決める。
    • 適応:調査中...
    • 色補正:調査中...
  • Rhシンプル
    • キー:変換後の画像の明るさの平均値を決める。
    • オフセット:調査中...
    • ガンマ:変換後の画像にガンマを適用する

Z値合成

画像の深度値をつかって、2つの画像を合成する。ただの合成ではなく、3Dでの前後情報をもとに合成できる。VFX作業には必須のノード。

f:id:fujisan14153:20181214140057p:plain

  • 出力
    • 画像:合成後の画像を出力する
    • Z:合成後の深度マップを出力する
  • パラメータ
    • アルファを使用:入力画像2のアルファ値を合成に利用するかどうか。
    • Zアンチエイリアス:Zマップにアンチエイリアスを使用するかどうか。使用した方が綺麗に合成できる場合が多い。
  • 入力
    • 画像1:合成したい画像を入力する
    • Z1:合成したい画像のZ値を入力する
    • 画像2:合成したい画像を入力する
    • Z2:合成したい画像のZ値を入力する

例えば...
深度情報が含まれた3枚のレンダリング画像があり、合成したい。でもただ合成するだけでは、戦闘機が岩の前にきてしまう...
f:id:fujisan14153:20181216204447p:plain
ここでZ値合成を使用して合成すると...
f:id:fujisan14153:20181216204527p:plain
正しく戦闘機が岩に隠れました。

【2.8対応】Blender コンポジットノード辞典 - 出力

Blender コンポジットノード辞典 - ホーム に戻る

出力

コンポジット

コンポジット結果を保存するためのノード。アニメーションレンダリングでは、レンダリングの生画像は保存されずに、このノードに入力された画像が保存される(生画像を直接ノードでこのノードにつなげば別だが)ので注意。

f:id:fujisan14153:20181213202434p:plain

  • パラメータ
    • アルファを使用:画像を透明情報(アルファ)付きで保存する
  • 入力
    • 画像:保存したい画像を入力する
    • アルファ:保存したいアルファマップを入力する
    • Z:保存したいZマップを保存する

ファイル出力

上の「コンポジットノード」がメインとして保存されるが、それとは別の画像ファイルとして保存できる。
例1:レンダリングの生画像とコンポジット画像をどっちも保存する
例2:レンダーレイヤーごとに画像を保存して、別のソフトでレタッチ・コンポジットする。

f:id:fujisan14153:20181213222743p:plain

  • パラメータ
    • 基本パス:画像を保存するフォルダを選択する。「C:/Render/Test」と入力した場合、Renderフォルダの中に「Test****.png」というファイル名で保存される(****は4桁のフレーム番号)。
  • 入力
    • Image:これはNキーで表示される「プロパティシェルフ」から自由に設定できる。

f:id:fujisan14153:20181213224205p:plain
レンダーレイヤーを分けて保存する例。

レベル

使い方は...良く分かりません。一応「輝度の平均から、自動的に画像の明るさ補正をする」「輝度の偏差からコントラストを自動補正する」といったことが考えられる。私は1度だけグリーンバックのデスピル操作に使ったことがある。

f:id:fujisan14153:20181213224448p:plain

  • 出力
    • 平均:全ピクセルの各チャンネルの数値の平均値を出力する。
    • 標準偏差:数値の分布度合いを出力する。広範囲に分布していると高く、狭い分布だと低い値になる。(≒コントラスト)
  • パラメータ
    • C:RGBを統合したチャンネルを対象にする
    • R:R(赤)チャンネルを対象にする
    • G:G(緑)チャンネルを対象にする
    • B:B(青)チャンネルを対象にする
    • L :画像の輝度チャンネルを対象にする
  • 入力
    • 画像:対象にする画像を入力する

分割ビューアー

変化前と後の画像を比較したいときに超便利。このページ最後の項目「ビューアー」の上位機能。

f:id:fujisan14153:20181213231605p:plain

  • パラメータ
    • X・Y:分割の方向を指定する。Xで水平(横)に並べる。Yで垂直(縦)。
    • 強さ:二つの画像の分割する位置を指定する。50で半分ずつ、0で上側の画像のみ表示、100で下側の画像のみ表示。要はぐりぐり動かしてつかいます。
  • 入力
    • 画像:上につないだ方が左・上、下につないだ方が右・下に表示されます。

ビューアー

コンポジットの結果をプレビューしたいときに使う。ノードの途中に繋いで途中結果を確認できるので、Blenderコンポジターが最も多く使うノードである。

f:id:fujisan14153:20181213232220p:plain

  • 解説:ビューアーノードを追加すると、画像エディタやノードエディタの背景に表示できる。しかし、表示されるのは最初に追加したビューアーノードだけ(ノード自体は無制限に追加できる)。また、画像エディタで表示した画像は保存できる。
  • パラメータ
    • アルファを使用:画像の表示にアルファを使用する。使用しない場合は透明情報を無視して不透明な画像として表示される
  • 入力(これらは画像エディタで保存した際にも使用されます)
    • 画像:表示したい画像を入力する
    • アルファ:表示したいアルファマップを入力する
    • Z:表示したい深度マップを入力する

【2.8対応】Blender コンポジットノード辞典 - 入力

Blender コンポジットノード辞典 - ホーム に戻る

入力

ボケ画像

「ボケブラー」ノードで使用する「ボケ画像」を作る事ができる。
ボケとは:点光源をピントをずらして撮影した時にでる「光の玉」みたいなやつです。英語でも「ボケ(Bokeh)」と言います。

f:id:fujisan14153:20181213172440p:plain

  • 出力
    • 画像:ボケ画像を出力する。アルファも含まれている
  • パラメータ
    • フラップ:ボケの形を指定する。要は「~角形」。現実で言うカメラの「絞り羽根の枚数」である。
    • 角度:ボケ画像を回転させる。現実では傾いている(0では無い)ことが多い。
    • 丸め:ボケの角を丸める。1で完全に円形になる。実際のカメラでも、「絞り羽根」が円形になってるものも多い。
    • 反射屈折:中心を透明にする。現実ではあまり起こらないのでデフォルトで良い。と思う。
    • レンズシフト:カメラ業界で言う「色収差」のこと。これも現実ではあまり見られないが、ほんのちょっと付けると見栄えがよくなる(上の画像はやりすぎ)。

画像

画像をドライブから読み込む。動画や連番画像も読み込める。

f:id:fujisan14153:20181212112341p:plain

  • 出力
    • 画像:画像を出力する(上級者向け:カラースペース・アルファモードに注意)
    • アルファ:アルファマップを出力する(アルファ1:黒、アルファ0:白の画像)
    • 深度:深度マップを出力する。0~1では無いので注意。画像に変換するには正規化ノードを使う

マスク

f:id:fujisan14153:20181212114339p:plain

  • 出力
    • マスク:Blenderのマスク機能で作成したマスクを読み込む(外部ツールで作成したマスクは画像ノードを使う)
  • パラメーター
    • アンチエイリアスアンチエイリアシングをするかどうか(マスク縁のジャギー(ギザギザ)をなめらかにする)f:id:fujisan14153:20181212115521p:plain
    • フェザー:Blenderのマスク機能で指定した「フェザー(減衰)」を使用するかどうか
    • シーンサイズ:マスクの大きさを指定する。シーンサイズでレンダリングサイズ、定値でピクセル値で指定できる。(マスク機能で作成したマスクはベクターデータ(解像度に依存しない)なので、コンポジットに使うにはラスター画像(ピクセル化)に変換して使う)
    • モーションブラー:マスクにアニメーションが設定されているとき、移動速度に応じてブラー(ぼかし)をかける。

動画クリップ

画像ノードと動画クリップノードの違いとして、前者は再生開始や長さを指定できるのに対し、後者はできない。

f:id:fujisan14153:20181212123343p:plain

  • 出力
    • 画像:動画ファイルの画像を出力する
    • アルファ:動画ファイルのアルファマップを出力する(mp4にはアルファがありません)
    • あと全部:動画クリップエディタでスタビライズ等の処理を動画にした場合の、動画のトランスフォーム(動き)を出力する

レンダーレイヤー

f:id:fujisan14153:20181212131629p:plain

  • 出力
    • レンダーレイヤーは、出力を自由に変更できるので、省略させていただきます。

f:id:fujisan14153:20181212131900p:plain
図の赤枠の中が「ノードの出力」になる

RGB

色を出力する。複数のノードの色入力をまとめて出来るので便利。

f:id:fujisan14153:20181212132116p:plain

  • 出力
    • RGBA:色を出力する(R:赤、G:緑、B:青、A:アルファ)

テクスチャ

Blenderで作ったテクスチャを画像として流用できる。Blenderではノイズテクスチャなどが簡単に生成出来るので「Blenderでノイズテクスチャを生成→コンポジットで使用」なんかが出来るので重宝しています。

f:id:fujisan14153:20181212221302p:plain

  • 出力
    • 値:テクスチャに保存されている「数値」を出力する。画像に変換すると輝度(Luminance)とも言える。Blender内部のテクスチャデータは白(1.0)以上の値も保持できるため、見た目とは違う(クリッピング)ことがあるので注意。
    • 画像:テクスチャを画像として出力する。

時間

現在のフレーム数に応じた数値を出力する。
例:時間とともに白から黒に変化するアニメーションをつける。

f:id:fujisan14153:20181213161050p:plain

  • 解説:1フレーム目は0.0が出力され、250フレーム目には1.0が出力される。その間のフレームは、中央のグラフでアニメーションに変化を付けることができる。
  • 出力
    • 係数:現在フレーム数にカーブを適用した数値を出力する。0~1の範囲で出力される。
  • パラメータ
    • グラフ:数値変化に緩急をつけることができる。デフォルトでは緩急が無い(直線的)が、上の写真では前半が急な変化、後半が緩やかな変化になっている。(値の変化スピードをコントロールする、が覚えやすいかも)
    • X・Y:グラフ内の選択中の点の座標。Xがノーマライズされたフレーム数、Yが出力値だ。
    • 開始・終了:アニメーションの開始・終了フレームを指定できる。開始を100にすると、1~100フレームの間は0が出力される。

トラック位置

Blenderの「動画クリップエディタ」でのトラッキングポイントの座標や速度を出力する。
例:動画内のあるポイントをトラッキングして、そのポイントにコンポジットで画像を追従させる。

f:id:fujisan14153:20181213165040p:plain

  • 出力
    • X・Y:トラッカーのXY座標を出力する。左下が原点(0, 0)。
    • 速度:トラッカーの速度ベクトルを出力する。2次元ベクトルであることに注意。

ただ入力された値を出力するだけ。複数のノードの値を指定するときに使えるので以外に便利。

f:id:fujisan14153:20181213171102p:plain

  • 出力
    • 値:入力された値を出力する。
  • パラメータ
    • 数値:値を入力する。もちろんキーフレームも打てますよ。

【2.8対応】Blender コンポジットノード辞典 - ホーム

Blenderのコンポジットノードをすべて解説するのが目標。

どうしても実写合成に偏ってしまうのはご了承ください...

ノードカテゴリー

  • フィルター (Filter)
  • ベクトル  (Vector
  • マット   (Matte)
  • 変形    (Distort)
  • グループ  (Group)
  • レイアウト (Layout)