MMGenerationのセットアップと学習済みモデルの使い方

2022年7月3日日曜日

Artificial Intelligence

本記事では、GANに特化したツールセットであるMMGenerationのセットアップ方法や学習済みモデルを用いた様々なタスクの実行方法をご紹介します。

eye catch
出典: open-mmlab/mmgeneration

MMGeneration

概要

MMGenerationはOpenMMLabが開発するPytorchをベースとしたGANに特化したツールセットです。

Pytorch1.5以降で動作する本ツールセットは、StyleGANv1, v2, v3などのUnconditional GANからBIGGANやSNGANなどのConditional GANなど様々なモデルをサポートしており、統一されたAPIを使用して容易に切り替えることが可能です。

また、トレーニングや評価等の基本的なパイプラインの構築はもちろんのこと、GAN Interpolation, GAN Projection, GAN Manipulationなど複数のタスクがツールセットに組み込まれており、モデルの構築から使用まで幅広くサポートされています。

詳細はこちらのドキュメントをご参照ください。

本記事では上記手法を用いて、画像合成やGAN Interpolationを動かしていきます。

スポンサーリンク

デモ(Colaboratory)

それでは、実際に動かしながらMMGenerationを用いた画像合成や画像補間を行っていきます。
ソースコードは本記事にも記載していますが、下記のGitHubでも取得可能です。
GitHub - Colaboratory demo

また、下記から直接Google Colaboratoryで開くこともできます。
Open In Colab

また、このデモはPythonで実装しています。
Pythonの実装に不安がある方、Pythonを使った機械学習について詳しく勉強したい方は、以下の書籍やオンライン講座などがおすすめです。

環境セットアップ

それではセットアップしていきます。 Colaboratoryを開いたら下記を設定しGPUを使用するようにしてください。

「ランタイムのタイプを変更」→「ハードウェアアクセラレータ」をGPUに変更

初めにGithubからソースコードを取得します。

  1. %cd /content
  2.  
  3. !git clone https://github.com/open-mmlab/mmgeneration.git

次にライブラリをインストールします。

  1. %cd /content/mmgeneration
  2.  
  3. !!pip install moviepy
  4. !pip3 install openmim
  5. !mim install mmcv-full
  6.  
  7. !pip install -e .[all]

以上で環境セットアップは完了です。

画像合成

ここでは、FFHQでトレーニングされたStyleGANv2モデルを使用してランダムに人の顔画像を生成します。
MMGenerationを使用するとコンフィグファイルとモデルのパスを指定するのみでモデルが使用できます。

  1. import mmcv
  2. from mmgen.apis import init_model, sample_unconditional_model
  3.  
  4. # Specify the path to model config and checkpoint file
  5. config_file = 'configs/styleganv2/stylegan2_c2_ffhq_1024_b4x8.py'
  6. # you can download this checkpoint in advance and use a local file path.
  7. checkpoint_file = 'https://download.openmmlab.com/mmgen/stylegan2/stylegan2_c2_ffhq_1024_b4x8_20210407_150045-618c9024.pth'
  8.  
  9. device = 'cuda:0'
  10. # init a generatvie
  11. model = init_model(config_file, checkpoint_file, device=device)
  12. # sample images
  13. fake_imgs = sample_unconditional_model(model, 4)

生成された画像を表示します。

  1. from torchvision import utils
  2. import matplotlib.pyplot as plt
  3. import os
  4. from IPython.display import Image, display
  5.  
  6. results = (fake_imgs[:, [2, 1, 0]] + 1.) / 2.
  7. save_path = './outputs/unconditional/results.jpg'
  8.  
  9. # save images
  10. mmcv.mkdir_or_exist(os.path.dirname(save_path))
  11. utils.save_image(
  12. results, save_path, ncol=1, padding=0)
  13.  
  14. # display
  15. display(Image(save_path))
fake images

実在している人だと言われても違和感がないほどの画像が生成されています。

ラベル付き画像合成

ここでは、ImageNetを用いてトレーニングされたBigGANを用いて、ラベルで指定した画像を合成してみます。

  1. from mmgen.apis import init_model, sample_conditional_model
  2.  
  3. # Specify the path to model config and checkpoint file
  4. config_file = 'configs/sagan/sagan_128_woReLUinplace_noaug_bigGAN_Glr-1e-4_Dlr-4e-4_ndisc1_imagenet1k_b32x8.py'
  5. # you can download this checkpoint in advance and use a local file path.
  6. checkpoint_file = 'https://download.openmmlab.com/mmgen/sagan/sagan_128_woReLUinplace_noaug_bigGAN_imagenet1k_b32x8_Glr1e-4_Dlr-4e-4_ndisc1_20210818_210232-3f5686af.pth'
  7.  
  8. device = 'cuda:0'
  9. # init a generatvie
  10. model = init_model(config_file, checkpoint_file, device=device)
  11.  
  12. # sample images with specific labels
  13. # label https://gist.github.com/yrevar/942d3a0ac09ec9e5eb3a
  14. fake_imgs = sample_conditional_model(model, 4, label=[0, 1, 2, 3])

合成結果を表示します。

  1. results = (fake_imgs[:, [2, 1, 0]] + 1.) / 2.
  2. save_path = './outputs/conditional/results.jpg'
  3.  
  4. # save images
  5. mmcv.mkdir_or_exist(os.path.dirname(save_path))
  6. utils.save_image(
  7. results, save_path, ncol=1, padding=0)
  8.  
  9. # display
  10. display(Image(save_path))
fake iamges2

StyleGAN使用時と比較して、コンフィグと学習済みモデルのパスを変更した以外ほとんど実装内容を変えずにモデルを切り替えることができています。



Interpolation

最後に、StyleGANv2を用いて、画像間を補間しながらモーフィングのような動画を生成していきます。

  1. !python apps/interpolate_sample.py \
  2. configs/styleganv2/stylegan2_c2_ffhq_256_b4x8_800k.py \
  3. https://download.openmmlab.com/mmgen/stylegan2/stylegan2_c2_ffhq_256_b4x8_20210407_160709-7890ae1f.pth \
  4. --export-video \
  5. --samples-path outputs/interpolation \
  6. --endpoint 6 \
  7. --interval 60 \
  8. --space z \
  9. --seed 12 \
  10. --sample-cfg truncation=0.8

生成された動画は以下の通りです。

  1. from moviepy.video.fx.resize import resize
  2. from moviepy.editor import VideoFileClip
  3.  
  4. # display
  5. clip = VideoFileClip('/content/mmgeneration/outputs/interpolation/lerp.mp4')
  6. clip = resize(clip, height=420)
  7. clip.ipython_display()
interpolation result

用意されているサンプル実装を使用することで非常に簡単にInterpolationを実現できました。

スポンサーリンク

まとめ

本記事では、MMGenerationのセットアップから画像合成などの実行方法をご紹介しました。
こうしたツールセットの使用により、モデルの選択や実装が楽になりそうです。

また本記事では、機械学習を動かすことにフォーカスしてご紹介しました。
もう少し学術的に体系立てて学びたいという方には以下の書籍などがお勧めです。ぜひご一読下さい。


また動かせるだけから理解して応用できるエンジニアの足掛かりに下記のUdemyなどもお勧めです。

参考文献

2. GitHub - open-mmlab/mmgeneration

AIで副業ならココから!

まずは無料会員登録

プロフィール

メーカーで研究開発を行う現役エンジニア
組み込み機器開発や機会学習モデル開発に従事しています

本ブログでは最新AI技術を中心にソースコード付きでご紹介します


Twitter

カテゴリ

このブログを検索

ブログ アーカイブ

TeDokology