[RQ VAE Transformer] AIでテキストから画像生成 [Python]

2022年4月3日日曜日

Artificial Intelligence

本記事では、RQ-VAE Transformerと呼ばれる機械学習手法を用いて、テキストから画像を生成(Image to Text)する方法をご紹介します。

アイキャッチ

RQ-VAE Transformer

概要

RQ-VAE Transformerは高解像度画像生成技術です。

RQ-VAE Transformerは、高解像度画像を効果的に生成するため、残差量子化VAE(Residual-Quantized VAE)とRQ-Transformerで構成される2段階のフレームワークです。
この構成は、計算コストを効率的に削減しつつ、画像生成タスクにおいて様々なベンチマークで既存の自己回帰モデルより優れていると示されています。

overview
出典: Autoregressive Image Generation using Residual Quantization

詳細はこちらの論文をご参照ください。

本記事では、上記手法を用いて、任意のテキストを入力して画像を生成する方法をご紹介します。

スポンサーリンク

デモ(Colaboratory)

それでは、実際に動かしながらText to Imageを行っていきます。
ソースコードは本記事にも記載していますが、下記のGitHubでも取得可能です。
GitHub - Colaboratory demo

また、下記から直接Google Colaboratoryで開くこともできます。
Open In Colab

なお、このデモはPythonで実装しています。
Pythonの実装に不安がある方、Pythonを使った機械学習について詳しく勉強したい方は、以下の書籍やオンライン講座などがおすすめです。

環境セットアップ

それではセットアップしていきます。 Colaboratoryを開いたら下記を設定しGPUを使用するようにしてください。

「ランタイムのタイプを変更」→「ハードウェアアクセラレータ」をGPUに変更

はじめに、GitHubからソースコードを取得します。

  1. %cd /content
  2.  
  3. !git clone https://github.com/kakaobrain/rq-vae-transformer.git

続いて、ライブラリのインストールします。
注意点として、「RESTART RUNTIME」が表示された場合「ランタイム」→「ランタイムを再起動」を実行してください。

  1. %cd /content/rq-vae-transformer
  2.  
  3. # もし RESTART RUNTIMEが表示されたら「ランタイム」→「ランタイムを再起動」
  4. !pip install -r requirements.txt

続いて、ライブラリをインポートします。

  1. %cd /content/rq-vae-transformer
  2.  
  3. import numpy as np
  4. import matplotlib.pyplot as plt
  5. %matplotlib inline
  6.  
  7. from PIL import Image
  8. import yaml
  9. import torch
  10. import torchvision
  11. import clip
  12. import torch.nn.functional as F
  13.  
  14. from notebooks.notebook_utils import TextEncoder, load_model, get_generated_images_by_texts

学習済みモデルのセットアップ

環境セットアップが完了したので、続いて学習済みモデルを論文発表元から取得します。

  1. %cd /content/rq-vae-transformer
  2. !mkdir pretrained
  3. %cd pretrained
  4.  
  5. !wget https://arena.kakaocdn.net/brainrepo/models/RQVAE/dcd95e8f08408e113aab6451fae895f5/cc3m.tar.gz
  6. !tar -xvf cc3m.tar.gz

/content/rq-vae-transformer/pretrainedにモデルがダウンロードされます。

先ほどダウンロードしたモデルをロードしておきます。
RQ-VAEとRQ-Transferの2ステージ構成のため、2つのモデルをダウンロードしています。

  1. vqvae_path = '/content/rq-vae-transformer/pretrained/cc3m/stage1/model.pt'
  2. model_path = '/content/rq-vae-transformer/pretrained/cc3m/stage2/model.pt'
  3.  
  4. # load stage 1 model: RQ-VAE
  5. model_vqvae, _ = load_model(vqvae_path)
  6.  
  7. # load stage 2 model: RQ-Transformer
  8. model_ar, config = load_model(model_path, ema=False)
  9.  
  10. # GPUにセット
  11. model_ar = model_ar.cuda().eval()
  12. model_vqvae = model_vqvae.cuda().eval()
  13.  
  14. # CLIPモデルのダウンロード
  15. model_clip, preprocess_clip = clip.load("ViT-B/32", device='cpu')
  16. model_clip = model_clip.cuda().eval()
  17.  
  18. # prepare text encoder to tokenize natual languages
  19. text_encoder = TextEncoder(tokenizer_name=config.dataset.txt_tok_name,
  20. context_length=config.dataset.context_length)

Text to Image

それでは、Text to Imageを実行します。
初めに任意のテキストを英語で設定します。

  1. #@markdown 入力テキストを設定してください。
  2. text_prompts = "'a photo of \"Cherry blossoms in the snow\"'" #@param {type:"string"}
  3.  
  4. num_samples = 16
  5. temperature= 1.0
  6. top_k=1024
  7. top_p=0.95

今回は雪の中の桜の写真を生成してみます。

  1. pixels = get_generated_images_by_texts(model_ar,
  2. model_vqvae,
  3. text_encoder,
  4. model_clip,
  5. preprocess_clip,
  6. text_prompts,
  7. num_samples,
  8. temperature,
  9. top_k,
  10. top_p,
  11. )

生成結果を出力します。

  1. num_visualize_samples = 16
  2. images = [pixel.cpu().numpy() * 0.5 + 0.5 for pixel in pixels]
  3. images = torch.from_numpy(np.array(images[:num_visualize_samples]))
  4. images = torch.clamp(images, 0, 1)
  5. grid = torchvision.utils.make_grid(images, nrow=4)
  6.  
  7. img = Image.fromarray(np.uint8(grid.numpy().transpose([1,2,0])*255))
  8. display(img)

出力結果は以下の通りです。

result1

高解像度画像が4x4の16枚表示されます。
精細な画像が生成されていますね。

まとめ

本記事では、RQ VAE Transformerを用いたText to Imageを行いました。
テキスト次第で様々な画像が生成されるため是非いろいろ試してみてください。

また本記事では、機械学習を動かすことにフォーカスしてご紹介しました。
もう少し学術的に体系立てて学びたいという方には以下の書籍などがお勧めです。ぜひご一読下さい。


また動かせるだけから理解して応用できるエンジニアの足掛かりに下記のUdemyなどもお勧めです。

スポンサーリンク

参考文献

1.  論文 - Autoregressive Image Generation using Residual Quantization

2. GitHub - kakaobrain/rq-vae-transformer

AIで副業ならココから!

まずは無料会員登録

プロフィール

メーカーで研究開発を行う現役エンジニア
組み込み機器開発や機会学習モデル開発に従事しています

本ブログでは最新AI技術を中心にソースコード付きでご紹介します


Twitter

カテゴリ

このブログを検索

ブログ アーカイブ

TeDokology