pepe’s blog

雑多な趣味に関して深く浅く広く狭く語るブログです。

画像生成 AI "SeaArt" で LoRA を作成してみた

画像生成 AI サービスの SeaArt で簡単に LoRA ( Low-Rank Adaptation ) が作成できると聞いたので、ちょっとだけ試してみました。

SeaArt とは

SeaArt は誰にでもお手軽に画像生成ができる Web サービスで基本無料で使用できます。インストール作業も必要なく、Stable Diffusion と同等の機能をすぐに試すことができる非常に敷居の低いサービスです。Stable Diffusion などの他のシステムではプロンプトを英語で指定する必要がありますが、SeaArt ではプロンプトを日本語で指定できるのもありがたいです。*1

SeaArt には下記のリンクから飛ぶことができます。ユーザ登録が必要ですが Google アカウント等で簡単に登録ができます。

https://www.seaart.ai/s/YGcgs7www.seaart.ai

LoRA を作る

SeaArt では、トップメニューの AI Model で LoRA の作成を行うことができます。なお、詳しい操作方法についての解説はいたしません。要望があればあらためて解説記事を起こしますので、コメント欄でリクエストしてください。

今回のサンプルでは、とあるモデルさんを撮影した写真 ( すべて同じ場所と衣装 ) を 20 枚ほど読み込ませて学習させてみました。学習モデルはアジア人女性の画像生成に定評のある BRA V5 ( Beautiful Realistic Asians Verson 5 ) を指定しました。LoRA の学習から作成が完了するまでの所要時間は合計で 30 分弱でした。

作成した LoRA を使って画像生成をしてみる

上記で作成した LoRA を使って SeaArt で画像生成を行ってみました。LoRA の学習度合いをチェックする意味でプロンプトは必要最低限のものを指定しました。

プロンプト = キヤノンEOS R5、RF85mmF1.2L
プロンプト = キヤノンEOS R5、RF85mmF1.2L
プロンプト = なし ( 未指定 )
プロンプト = 天使
プロンプト = ウェディングドレス、プール
プロンプト = 黒いチャイナドレス、剣を握っている
プロンプト = 女神
プロンプト = スキーウェア、冬、雪
<

脚注・コメント

*1:プロンプトの翻訳機能もあるので、英訳して他のシステムへコピペすることも可能です。

続・Web UI を使わずに Stable Diffusion で遊ぶ ( 2023-06-22 更新 )

無償版の Google Coraboratory でお手軽に Stable Diffsuion による動画生成を楽しむ方法について記事を投稿したのですが、評価ゼロという世間の厳しい目にさらされて「やっぱり普通のおじさんの画像生成をサンプルに取り上げたのが不味かったか」と反省している今日この頃です。

というわけで、今回は「奇麗なお姉さん」の画像を手軽に生成するサンプルコードを例示することにします ( 笑 ) 。

Web UI を使わずに Stable Diffusion で奇麗なお姉さんの画像を生成する

サンプルコードの変更・追加 ( 2023-06-08 更新 )

奇麗なお姉さんの画像生成を行うにあたって、下記の変更・追加を行いました。

  1. 生成した画像ファイルを Google Drive の任意のフォルダに保存できるようにしました。コマンドの folder= の指定 *1 を変更することで任意のフォルダを指定できます。
  2. 生成した画像のファイル名が重複しないように ( 一意になるように ) ファイル名を ”学習モデル名"+ "@" +"生成年月日時分秒 ( 小数点以下を含む ISO 形式 ) " + "_" + "seed値" + ".png" として保存するように変更しました。

    【例】sinkinai-Beautiful-Realistic-Asians-v5@2023-06-07T18_22_21.033371_2552175417807081197.png

  3. 学習モデルとして BRA V5 ( Beautiful Realistic Asians v5 ) を使用します。
  4. 画像生成の部分を関数(メソッド)化して、引数として以下のパラメータを指定できるようにしました。
    引数引数の意味備考
    promptプロンプト
    negative_promptネガティブプロンプト
    height画像の高さ単位:ピクセル
    width画像の幅単位:ピクセル
    guidance_scaleプロンプトの重み値が大きいほどプロンプトを厳密に適用
    num_inference_stepsノイズ除去ステップ数値が大きいほど品質が向上する
    seedseed 値 任意の整数、同じ値を指定すると同じ傾向の画像が生成される。-1 を指定するとランダムな値になる。
  5. NFSW ( Not Safe For Work, 職場閲覧注意 ) フィルターを無効化して NFSW に類する画像を表示できるようにしました。*2
  6. 生成された画像に seed 値を表示するようにしました。seed 値を同じ値に設定することで類似画像を生成できるようになります。

サンプルコードの改訂 ( 2023-06-22 追記 )

Stable Diffusion の内部処理に変更があったようで、前項 5 番目の NFSW フィルターの無効化処理でエラーが発生するようになりました。そこで NFSW フィルターの無効化処理を改訂して対応いたしました。すでにコードをダウンロードしている方は、新しいコードへの差し替えをお願いします。

未実装機能

以下の機能はまだ実装できていません。今後の課題とします。

  1. アップスケール機能(高解像度化)には対応できていません。
  2. VAE には対応できていません。
  3. LoRA には対応できていません。

コマンドの入力と保存

Web ブラウザで Google Coraboratory を開いて「ノートブックを新規作成」を選びます。ノートブック名は BRAV5_Batch.ipynb のように変更します。なお、Google Coraboratory の操作方法についてはここでは省略します。前回の記事を参考にしてください。

pepeprism.hatenablog.com

このサンプルではコードセルを2つ使用しますので「+コード」をクリックしてセルを1つ追加してください。

まず、Stable Diffusion を起動するコマンドを入力します。ここでは以下のコマンドを使用します。なお、画像を保存する Google Drive のフォルダの指定はユーザの環境に合わせて変更してください。

# 使用する学習モデルの指定
model_id = "sinkinai/Beautiful-Realistic-Asians-v5"

# 画像を保存する Google Drive のフォルダの指定
folder = 'drive/MyDrive/data'

# Stable Diffusion をセットアップする
!pip install diffusers transformers scipy ftfy accelerate
import torch
from diffusers import StableDiffusionPipeline
pipe = StableDiffusionPipeline.from_pretrained(model_id, torch_dtype=torch.float16)
device = "cuda"
pipe = pipe.to(device)

# NFSWフィルターを無効化する
pipe.safety_checker = lambda images, **kwargs: (images, [False] * len(images))

# 画像生成を行うメソッド
def drawPicture (prompt, negative_prompt, height, width, guidance_scale, num_inference_steps, seed) :
    import random, sys, datetime
    seedValue = random.randint(0,sys.maxsize) if seed == -1 else seed;
    generator = torch.Generator(device).manual_seed(seedValue)
    image = pipe(prompt, negative_prompt=negative_prompt, height=height, width=width, guidance_scale=guidance_scale, num_inference_steps=num_inference_steps, generator=generator).images[0]
    path = folder + "/" + model_id.replace('/', '-') + "@" + datetime.datetime.now().isoformat() + '_' + str(seedValue) + ".png"
    image.save(path)
    print('seed = ' + str(seedValue))
    return image

最初のコードセルに上記のコマンドをコピペします。


次に、画像生成のためのプロンプトと実行コマンドを入力します。ここでは、サンプルとして下記のコマンドを使用します。プロンプトとネガティブプロンプト、画像サイズなどの各種パラメータは必要に応じて書き換えてください。

# 奇麗なお姉さん
# プロンプト
prompt = "masterpiece, best quality,ultra high res,(photo realistic:1.4),1 girl, short hair, looking at viewer"
# ネガティブプロンプト
n_prompt = "Easy negatvie, (worst quality:2),(low quality:2),(normal quality:2), lowers, normal quality,((monochrome)),((grayscale)),skin spots, acnes, skin blemishes, age spot, nsfw, ugly face, fat, missing fingers, extra fingers, extra arms, extra legs, watermark, text, error, blurry, jpeg artifacts, cropped, bad anatomy, big eyes"
# 画像生成
drawPicture (prompt=prompt, negative_prompt=n_prompt, height=768, width=512, guidance_scale=7, num_inference_steps=50, seed=-1)

2番目のコードセルに上記のコマンドをコピペします。


ランタイムのタイプを GPU に設定する

ランタイムメニューで「ランタイムのタイプを変更」を選択します。


ノートブックの設定ダイアログの「ハードウェアアクセラレータ」を「GPU」に設定します。なお、「GPUのタイプ」は「T4」のままとします。設定を終えたら「保存」をクリックします。


ここまで入力できたら、ファイルメニューの「保存」を選んでファイルを保存しておきます。


コマンドの実行

最初のコードセルの三角アイコンをクリックしてコマンドを実行します。


コマンドが終了するまで(三角アイコンの回転が止まるまで)待ちます。コマンド実行は数分で終了します。

画像の生成

2番目のコードセルの三角アイコンをクリックしてコマンドを実行すると画像生成が開始されます。


このサンプルでは十数秒で画像生成が終了します。


さらに三角アイコンをクリックすることで、次々に別の画像を生成することができます。


セルの追加による複数画像の生成

さらにコードセルを追加して画像生成コマンドをコピペすることで複数画像を同時に生成することができます。

画像の保存

画像の保存は下記のいずれかの方法で行うことができます。

画像を右クリック

それぞれの画像を右クリックして「名前を付けて画像を保存」を選択します。


サイドメニューのフォルダ表示

ノートブックの左サイドメニューのフォルダアイコンをクリックして画像が保存されているフォルダの中から画像ファイルを選んで右クリックメニューのダウンロードを選択します。


Google Drive を開く

Google Drive を開いて画像が保存されているフォルダの中から画像ファイルを選んでダウンロードします。


生成した画像のサンプル

今回のスクリプトを使用して生成した画像のサンプルを以下に掲げます(画像をクリックすると拡大表示されます)。なお、プロンプトは何パターンか作成しています。

脚注・コメント

*1: デフォルトでは drive/MyDrive/data になっています。

*2:水着などで露出過多の画像が生成された場合に真っ黒な塗りつぶし画像になってしまうのを回避するようにしました。

Web UI を使わずに Stable Diffusion で遊ぶ

おかげさまで目の調子は徐々に良くなってきました。いろいろと機材も増えたので、そろそろ屋外&スタジオでポトレ撮影をしたいなぁ・・・などと考えています。被写体の女子の皆さん、よろしくお願いいたします

Web UI を使わずに Stable Diffusion で画像生成

さて、相変わらず画像生成 AI「Stable Diffusion」でいろいろ遊んでいますが、ハイスペック PC を調達(自作)しないかぎりローカル環境では遅くて使い物になりませんし、無償版の Google CoraboratoryStable Diffruison Web UI を使おうとすると警告が表示されたりで、いろいろ制約があって困りものです。

そこで、ちょっと調べてみたところ、どうやら Stable Diffruison Web UI さえ使わなければ Google Coraboratory で警告が出ることはないことが判明しました。というわけで、ネット上のいろいろな記事や動画を参考に、バッチ処理的にコマンドだけで Stable Diffsuion による動画生成を行ってみました。

コマンドだけで実行する場合のメリット・デメリット

Web UI を使わずにコマンドだけで実行する場合のメリットは「処理が速い」ことです。Web UI を使ったことがある人ならご存知と思われますが、Web UI が立ち上がるまで諸々のインストールを含めて 10 分弱かかります。ちょっと使いたいという場合にはこれは最大のネックです。

いっぽうデメリットは「Web UI が提供する豊富な機能が利用できない」点です。このためこの方法は本格的な画像生成を行うには不向きです。ちょっと試してみたいとか、モデルに依存しない簡単なテストをしてみたいという用途に向いています。もちろん、「無償版の Google Coraboratory で手軽に遊びたい」という方にも最適です。

Web UI を使わないコマンドの例

コマンドの入力と保存

Web ブラウザで Google Coraboratory を開いて「ノートブックを新規作成」を選びます。


新しいノートブックが開くので、ノートブック名を変更します。


ここでは batch.ipynb としました。


ノートブック上にはコードを記入する領域(セル)が1つだけ設置されています。画面上部メニューの「+コード」をクリックすることでコードセルはいくつでも追加できます。


このサンプルではコードセルを2つ使用しますので「+コード」をクリックしてセルを1つ追加しておきます。


まず、Stable Diffusion を起動するコマンドを入力します。ここでは以下のコマンドを使用します。*1

!pip install diffusers transformers scipy ftfy accelerate
import torch
from diffusers import StableDiffusionPipeline
model_id = "SG161222/Realistic_Vision_V2.0"
pipe = StableDiffusionPipeline.from_pretrained(model_id, torch_dtype=torch.float16)
pipe = pipe.to("cuda")
google_drive_dir = 'drive/'
base_file_name = 'test1'
!cat /proc/uptime | awk '{printf("残り時間 : %.2f", 12-$1/60/60)}'

最初のコードセルに上記のコマンドをコピペします。


次に、画像生成のためのプロンプトと実行コマンドを入力します。ここでは、サンプルとして下記のコマンドを使用します。

# プロンプト
prompt = "Japan, a normal man, yo 40, around here, casual clothes that don't look good, bald"
n_prompt = "(nsfw:1.3),extra fingers,bad anatomy,paintings,sketches,poorly drawn face,extra limbs,extra arms,extra legs,malformed limbs,long neck"

# 画像の生成、保存、表示
image = pipe(prompt, negative_prompt=n_prompt, guidance_scale=7.5, num_inference_steps=50, height=768, width=512).images[0]  
image.save(f"man.png")
image

2番目のコードセルに上記のコマンドをコピペします。


ランタイムのタイプを GPU に設定する

ランタイムメニューで「ランタイムのタイプを変更」を選択します。


ノートブックの設定ダイアログの「ハードウェアアクセラレータ」を「GPU」に設定します。


なお、「GPUのタイプ」は「T4」のままとします。設定を終えたら「保存」をクリックします。


ここまで入力できたら、ファイルメニューの「保存」を選んでファイルを保存しておきます。


コマンドの実行

最初のコードセルの三角アイコンをクリックしてコマンドを実行します。


コマンドが終了するまで(三角アイコンの回転が止まるまで)待ちます。


コマンド実行は数分で終了します。


画像の生成

2番目のコードセルの三角アイコンをクリックしてコマンドを実行すると画像生成が開始されます。


このサンプルでは十数秒で画像生成が終了します。生成された画像は右クリックしてファイルに保存できます。


さらに三角アイコンをクリックすることで、次々に別の画像を生成することができます。


必要に応じてプロンプトを変更すれば様々な画像が生成できます。


セルを追加すれば複数画像の同時生成も可能

さらにコードセルを追加して画像生成コマンドをコピペすることで複数画像を同時に生成することができます。

関連記事

アジア人女性(日本人女性を含む)の画像生成に適した学習モデル BRA V5 を使用し、さらに各種の機能追加を行った改良版のソースコードを使った記事を続編として投稿しました。あわせてご覧ください。

pepeprism.hatenablog.com

脚注・コメント

*1:このサンプルでは、モデルとして「Realistic_Vision_V2.0」を使用しています。

Stable Diffusion + BRA V4 でウェディングドレス姿の女性の画像を生成してみた

相変わらず目の調子が良くない状態が続いています。危なくて写真を撮りに出歩けないので、画像生成 AI「Stable Diffusion」のいろいろなモデルを使ってポートレート写真風の画像を生成して遊んでいます。

今回使用したのは「BRA ( Beautiful Realistic Asians ) V4*1 というモデルです。「モデルって何だよ?」という方はネットでググってみてください。ここでは説明は省略します。

ウェディングドレスでハグする女性のポートレート写真風画像

プロンプトで「プールサイドでハグする白いウェディングレスの二人の女性」を ( 英語で ) 指定して画像をいくつか生成してみました。

なお、Stable Diffusion で手足まで描かせると奇形が生じる確率が非常に高いという不具合は、いまだに解決していません。ネガティブプロンプトで抑制を試みましたが、めったにうまくいかないようです。このため、下記に掲載したスクエアの画像は奇形部分をカットするようにトリミングしています。

使用モデル:BRA (Beautiful Realistic Asians) V4

使用モデル:BRA (Beautiful Realistic Asians) V4

使用モデル:BRA (Beautiful Realistic Asians) V4

使用モデル:BRA (Beautiful Realistic Asians) V4

使用モデル:BRA (Beautiful Realistic Asians) V4

下の画像は珍しく腕や指の奇形が見られないのでトリミングせずに掲載しました ( よくみると???という部分はありますが )。

使用モデル:BRA (Beautiful Realistic Asians) V4

下の画像はなぜか女性が一人しか描かれていません。Stable Diffusion にはまだまだ謎の部分が多いです (^_^;)。

使用モデル:BRA (Beautiful Realistic Asians) V4

関連リンク

Google Colaboratory

Stable Diffusion をローカル PC で使用するためには、NVidia 製のミドルレンジ以上のグラボ (RTX 3060 以上で VRAM が12GB程度搭載されているもの)が必須になります。

このような環境を持っていない人は Google Colaboratory を利用することで Web ベースで実行することができます。Google Colaboratory Google アカウントを持っている人なら無償で利用できます。ファイル領域として Google Drive が使われますので、相応の空き容量を確保する必要があります。

Google Colaboratory については下記のサイトをご覧ください。

colab.research.google.com

なお、最近 Stable Diffusion の利用者が急増したために Google Colaboratory のサーバリソースが不足しているようで、Stable Diffusion を起動すると警告が表示されるようになりました。いずれ無償での使用に制限が課される可能性がありますので、継続して利用する人は有償サービスの利用を考えたほうがいいかもしれません。

Stable Diffusion 関連

stablediffusionweb.com

github.com

BRA ( Beautiful Realistic Asians )

ko-fi.com

civitai.com

脚注・コメント

*1:BRA は次のバージョンである V5 のβ版が公開されています

画像生成 AI「Stable Diffusion」によるポートレート写真風の画像

眼の調子が悪い状態が続いていて細かい作業ができないため、いろいろな AI で遊んでいます。ここ数日は、画像生成 AI「Stable Diffusion」によるポートレート写真風の画像を生成して楽しんでいますが、せっかくなので、ポチポチと成果をアップしていきたいと思います。

なお、Stable Diffusion の使い方については、巷に多数の解説記事が溢れ返っていますので、ここでは解説は行いませんが、超入門的な記事でよろしければ(ご要望があれば検討いたしますので)コメント欄にてご用命ください。

冬のポートレート写真風画像のサンプル

使用モデル:ChilloutMix + JapaneseDollLikeness

使用モデル:ChilloutMix

【Photo】みなとみらい駅 / Chiki

[date] 2007-08-22
[model] Chiki
[place] みなとみらい駅構内
[camera] Canon EOS Kiss Digital X
[lens] Tamron SP AF 17-35mm F2.8-4 Di LD Aspherical [IF] (model A05)
[ex.data] 17mm、f/2.8、1/50sec、ISO-400、+0.7EV
[lighting] その場の明かりのみ
[developing] DxO PureRAW 3 + Adobe Lightroom Classic + Luminar NEO
備考
DxO PureRAW 3 によるノイズ低減処理およびディティール回復処理を行ったのち、Lightroom Classic と Luminar NEO によるレタッチを行いました。

DxO PureRAW 3

DxO PureRAW 3 は下記のリンクで購入できます。体験デモ版(30日間)のダウンロードも可能です。

www.dxo.com

商品リンク

【Photo】廃墟 / 瀬尾由布子

[date] 2007-04-22
[model] 瀬尾由布
[place] フランス領事館跡(港の見える丘公園
[camera] Canon EOS Kiss Digital X
[lens] Canon EF50mm f/1.4 USM
[ex.data] 50mm、f/2.8、1/60sec、ISO-100 (+0.7EV)
[lighting] 自然光のみ
[developing] Adobe Lightroom Classic + Luminar Neo 1.7.0

同じ写真をポートフォリオにも掲載しました。

pepeprism.myportfolio.com

商品リンク

【Photo】 山下臨港線プロムナード / しらたにみずき

[date] 2020-12-14
[model] しらたにみずき
[place] 像の鼻地区(山下臨港線プロムナード高架下)
[camera] Canon EOS-1D X MarkII
[lens] Canon EF 85mm F1.2L USM
[ex.data] 85mm、f/5.6、1/60sec、ISO-400
[developing] Adobe Lightroom Classic + Luminar NEO

商品リンク

【Photo】 本牧小さな旅 / 上原葉月 ※再レタッチ

[date] 2009-05-16
[model] 上原葉月
[place] 横浜港シンボルタワー
[camera] Canon EOS 5D MarkII
[lens] Canon EF 24mm F2.8
[ex.data] f/2.8、1/500sec、ISO:100
[lighting] 自然光のみ
[developing] Adobe Lightroom Classic + Luminar Neo
再レタッチの内容
  1. フレーミングの調整を行いました。
  2. 色目の調整を行いました。

ポートフォリオ

同じ写真をポートフォリオにも掲載しました。

pepeprism.myportfolio.com

商品リンク

   

【Photo】 キャンドルナイト / いちかじゅん ※再レタッチ

[date] 2009-12-24
[model] いちかじゅん
[place] みなとみらい21(汽車道
[camera] Canon EOS 5D MarkII
[lens] TAMRON SP AF28-75mm F/2.8 XR Di LD Aspherical [IF] MACRO (MODEL A09)
[ex.data] 55mm、f/2.8、1/30sec、ISO:3200
[lighting] その場の明かりのみ
[developing] Adobe Lightroom Classic + Luminar NEO
再レタッチの内容
  1. 元データからレタッチをやり直しました。
  2. 色目の調整を行いました。

ポートフォリオ

同じ写真をポートフォリオにも掲載しました。

pepeprism.myportfolio.com

商品リンク

【Photo】 チャイナドレス / 岬恵麻 ※再レタッチ

[date] 2005-11-26(土)
[model] 岬恵麻
[place] 瀋秀園
[camera] Canon EOS 10D
[lens] Canon EF50mm F1.4 USM
[ex.data] f/4、1/50sec、ISO:100
[lighting]  サンテック SPロールレフ L(白)+ 丸レフ(白)
[developing] Adobe Lightroom Classic + Luminar NEO
再レタッチの内容
  1. 元データからレタッチをやり直しました。
  2. 色目の調整を行いました。

ポートフォリオ

同じ写真をポートフォリオにも掲載しました。

pepeprism.myportfolio.com

商品リンク

【Photo】 アオザイ / 岬恵麻 ※再レタッチ

[data] 2005-11-26(土)
[model] 岬恵麻
[place] 瀋秀園
[camera] Canon EOS 10D
[lens] Canon EF50mm F1.4 USM
[ex data] f/2.8、1/200sec、ISO:100
[lighting]  サンテック SPロールレフ L(銀)+M(白)
[developing] Adobe Lightroom Classic + Luminar NEO
再レタッチの内容
  1. 元データからレタッチをやり直しました。
  2. 色目の調整を行いました。

ポートフォリオ

同じ写真をポートフォリオにも掲載しました。

pepeprism.myportfolio.com

商品リンク

【Photo】ハイカラさん de 鎌倉散歩 / 花音 ※再レタッチ

[date] 2008-10-04
[model] 花音
[place] 鎌倉市内(長谷)
[camera] Canon EOS 40D
[lens] Jupiter-9 / 85mmF2 (M42マウント)
[ex.data] f/2.8、1/500sec、ISO-100
[lighting] 自然光のみ 
[developing] Adobe Lightroom Classic + Luminar NEO
再レタッチの内容
  1. 元データからレタッチをやり直しました。
  2. 撮影時のフレーミング(ノートリミング)にしました。
  3. 色目の調整を行いました。

ポートフォリオ

同じ写真をポートフォリオにも掲載しました。

pepeprism.myportfolio.com

商品リンク

脚注・コメント

【Photo】川崎散歩 / Sai

[date] 2006-10-29
[model] Sai
[place] 川崎
[camera] Canon EOS 5D
[lens] Lensbaby 2.0 (EFマウント)
[ex.data] 50mm、f/2.0、1/50sec、ISO-200、EV-0.3
[lighting] 自然光のみ
[developing] Adobe Lightroom Classic + Luminar NEO

ポートフォリオ

同じ写真をポートフォリオにも掲載しました。

pepeprism.myportfolio.com

商品リンク

EOS 5D シリーズ

Lensbaby 2.0

Lensbaby ティルトレンズ SOL 45 45mm F3.5

Lensbaby ティルトレンズ Spark 2.0 50mm F2.5

Lensbaby ティルトレンズ Composer Pro II with Sweet 50 50mm F2.5

Lensbaby ティルトレンズ Composer Pro II with Sweet 35 35mm F2.5

Lensbaby ティルトレンズ Composer Pro II with Sweet 80 80mm F2.8

Lensbaby ソフトレンズ velvet 28 28mm F2.5

Lensbaby ソフトレンズ Velvet 56 56mm F1.6

Lensbaby ソフトレンズ Velvet 85 85mm F1.8

Adobe Lightroom、Luminar NEO

脚注・コメント

【Photo】関内散歩 / Sai

[date] 2007-05-03
[model] Sai
[place] 関内
[camera] RICOH GR Digital(初代)
[lens] GR LENS F2.4/f=5.9mm
[ex.data] f/2.4、1/100sec、ISO-64、EV+0.7
[lighting] 自然光のみ
[developing] Adobe Lightroom Classic + Luminar NEO

ポートフォリオ

同じ写真をポートフォリオにも掲載しました。

pepeprism.myportfolio.com

商品リンク