嗨囉,我是設計師 Riven
在去年底的時候,我們就已經分享過 為什麼別人的 AI 繪圖都比較好玩?Midjourney 新手詠唱技巧教學,在 Facebook 等社群網站上得到不少分享與回應;而經過半年之後,也就是我在訂閱使用 Midjourney 一週年後,想來更新這份教學文件。
AI 繪圖功能更新非常地快,這篇攻略會從近期最新的功能提起,並接著從零開始記錄 Midjourney 的使用技巧。
Midjourney V5 版本更新
- 畫質提高且圖像效果更逼真,特別是真實照片感
- 類似「專業模式」需要完整的提示指令
- 新增拼貼參數
--tile
- 新增權衡參考圖參數
--iw
--ar
參數可以使用任意比例
最新 Midjourney 版本 V5.1
- 提升指令與圖片的關聯性,能夠更準確出圖
- V5.1 可以用更短的描述詞,產生效果更好的圖片
- 新增 RAW Mode 適合完整詳細的 prompt
初次使用 Midjourney
剛開始進入 Midjourney 的 Discord Server 後,找到 Newbies 開頭房間,點擊 chatbot 頭像傳送訊息,就可以進入私訊,不用在大群人擠人等算圖。
接著可以到 Midjourney 官網的 Community Feed 翻想要的參考範例,展開更多後選擇 Copy > Full Command,再到 Discord 輸入指令 /imagine 貼上生成,就可以拿到類似的圖。
U 按鈕會放大該圖像,生成圖像的更大版本並增加更多細節。
V 按鈕重新生成選定圖像的變化型,並形成一個網格,風格和構圖與選定圖相似。
🔄 重新執行一次,它將重新執行原始提示,並給出一個新的網格。
關於咒文這是我初步的理解假設:
AI 繪圖詠唱整體來說有這個公式(或說是文法)
「主體 + 風格 + 渲染 + 參數」
一段完整的描述詞會像是這樣:
Akawaii teenage japanese girl, full of fashion, white vest pajamas, large beautiful vivid anime doe eyes, illustrative anime style, hyper detailed light watercolor art by Charlie bowater & Yaegashi Nan & Taro Kagawa, epic composition, Dynamic pose, curvaceous, sharp focus, perfect shading, deep lighting, rim lighting, super details, cinematic lighting, half body, Medium Shot — ar 3:2
大多數咒文看起來都落落長,但拆開來看就很好瞭解。
第一個是主體,可以是很簡短的一個主詞,並加上形容詞,或是將你腦海中想像的場景完整描述出來。
比如說想要科幻感一點就能補上像是賽伯格(cyborg)、半機械化(semi-mechanized)、巨大的(Gigantic)。
那如果想要畫人物,就可以比如說動漫感的女角(Anime style, girl),加上貓耳朵(cat ears)、奇幻的眼睛(odd eyes)、左眼白瞳(left eye white)、右眼橘瞳(right eye orange)、一頭長髮(long hair)、再指定微捲(curly hair),並染個灰色(gray hair)搭個橘色內側挑染(yellow innter colore)。
加上像是打電動等正在發生的動作(playing computer games)諸如此類的細節,盡量交代清楚,就可以下圖打電動的動漫少女圖。
也要記得都用英文逗號,加上一半形空格來區隔開,並且是用英文(中文偶爾可行但不是那麼好用)。
主詞這邊有個隱藏小招,在名詞後面加上兩個冒號 :: 可以去更改權重,原本預設都是 1;可以去控制畫面物件的個別佔比。
object::1, object::5
然後一些關鍵字可以在畫面細節幫上忙,比如說粒子效果(particles)、液體(Liquid) 、煙霧(Smoke)之類。
或是正在發生的事情:爆炸(exploding)、破碎(broken)、故障(glitch)等等。
再來是風格的部分,這邊可以用上以前我們藝術課本學到的,像是文藝復興(Renaissance)、浮世繪(Ukiyo-e)、普普藝術(Pop Art)等等的經典風格。
或是一些歷史上有名文化和運動,超現實主義(Surrealism)、超寫實主義(Hyperrealism)或反烏托邦(Dystopia)。
而如果是想仿名人大師的作品,比如說想做建築,也可以放柯比意(Le Corbusier)、貝聿銘(Ieoh Ming Pei),或當代的隈研吾(Kengo Kuma)、伊東豊雄(Toyo Ito)。
或是你不想像是歷史課一樣那麼嚴肅,也可用自己喜歡的動漫或卡通關鍵字,像是新海誠(Shinkai Makoto)、宮崎駿(吉卜力工作室:Ghibli),或是寶可夢(Pokémon)也都很好用。
也可以是普遍能理解的動畫風格:皮克斯(Pixar)、夢工廠(Dreamworks)、迪士尼(Disney)。
更可以是遊戲畫面風格感,比如說曠野之息(用 Zelda 效率更好)、上古捲軸(Elder Scrolls;會有一堆龍)或英雄聯盟(League of Legends;拿來做造型立繪不錯)也行。
那除了風格以外,如何去渲染這張圖也是可以動的選擇,有個小技巧是加上使用的建模或設計軟體,也可以達到類似的渲染效果,像是虛幻引擎(Unreal Engine), C4D(Maxon Cinema 4D)。
或是有個做法也滿實用的,就是加上某個指定網站,用 trending on 加上 Dribble, Behance 或 Pixiv 等大型且行之有年的藝術與設計作品網站。(不過身為設計師,還是要提醒可以多關注 AI 對於智慧產權的議題。)
那如果是對於光和畫面質感比較要求的話,想要生成真實攝影感的照片,則可以用 photography 或 photoreal。
對攝影更講究一點的朋友,也能試試柔光(soft lights)和體積光(volumetric light)。
想要電影感一點的可以用高細節(high detail)、高品質(hyper quality)、電影鏡頭(cinematic shot)。
/describe 指令
要玩好 AI 繪圖,詠唱出對的 Prompt 指令是相當重要的。而要打出好的描述詞,要將腦中想像的畫面詳盡細節寫出來,才會產生好看的圖片。
初級的詠唱新手可以直接複製貼上別人的關鍵字,進階的使用者則幾乎都練就一手看到圖片就直接在腦中產生描述詞的技能,甚至在現實世界中也經常會下意識地對眼前的畫面,自動轉譯成 prompt。
而現在 Midjourney 也有了這樣的功能,只要在 /settings 確定目前版本為 V5,並使用最新的 /describe 指令,可以將想要參考的圖丟上去,就可以分析出可能的關鍵字。
只需要一張圖,就能夠取得圖片的可能描述詞;例如說上傳一張你在社群上看到不錯的圖,Midjourney 會分解出四組可能的 prompt。
我把這些詞彙複製起來 用 GPT-4 翻譯看一下大概的中文表達,可以偷學到一些冷門但實用的關鍵字,畢竟 AI 能理解的語言跟我們的口語上,還是會有一定程度的落差。
回到 Discord 這時候就可以直接按下這四個指令,來生成看看效果;或是從裡面拆出各個關鍵字來組合,而根據實測結果,我們也還可以再繼續調整裡面的描述詞,來達到想要做出的效果,這樣可以減少去來回實驗次數所消耗的時間。
補充:如果參考圖本身就是 AI 生成的,那用 Stable Difussion 的 PNG info 功能,也能夠做到相同的 prompt 分析。
/describe 可以做相當多的事情,能夠解構圖片裡的元素,這對 AI 繪圖來說是相當有幫助的。
Midjourney 指令一覽
/info:查看帳號使用資訊
/subscribe:查看 Midjourney 的帳號訂閱頁面
/imagine:最常用到,可以使用提示產生圖像
/show:使用 job ID 重回到以前算過的項目
/describe:可以辨識所上傳的圖片可能描述詞
/blend:混合兩種圖片
/stealth:切換到私人模式,圖片輸出只有自己看得到
/public:同上,切換到公開模式(預設)任何人可以在官網看到
/settings:調整 Midjourney 的內建設定
/ask:可以問問題
/help:顯示有關 Midjourney Bot 的使用指令
/prefer option:更改自定義選項
/prefer suffix:指定固定的 prompt 後綴
/relax:切換到 Relax 模式,不耗費快速算圖時間
/remix:切換 Remix 模式。按下出圖底下的 V ,不是重新算圖而是能調整新的指令
常見參數後綴
最後是參數指令,這個可以說是要當高手必會的部分,在描述詞的最後加上兩個連字號(hyphen)就可以了。
基本參數後綴有:
-- ar
可以指定生成圖片為 9:16 或 2:3 之類的數值比例(記得逗號前後和中間都要空格)-- no
可以指定不要什麼東西或顏色
例如 - no blue 或是 - no human,可以拿來可以用來剔除不必要的元素。-- V4
可以透過 /setting 設定內建
(V4 是 Midjourney Version 4)--hd
生成更大的圖片-- niji
指令現在可以召喚 nijijourney 的 bot
對於日式二次元動漫的運算和手部渲染有很大幅度的最佳化。--style
切換風格,可以理解為繪圖模型;目前在 Nijijourney 比較常用到。--chaos <0–100>
混亂程度,較高的數值會生成更不尋常且意想不到的結果。--tile
可以創作無接縫的可拼接圖片--q <.25, .5, 1, 或 2>
quality 圖片品質;預設值為 1。較高的值會花費更多。--r <1–40>
repeat 運作多次重複算圖。
--stop <10–100>
讓圖片在渲染過程中突然停止,會有較模糊沒細節的感覺。--uplight
渲染光線升級,圖片細節較少且更平滑。--stylize <數值>
也可以用 --s
採用藝術風格程度,愈高則愈接近 Midjourney 的 AI 預設--nocrop:取消預設的圖片剪裁。
而除了這些基本指令之外,現在 V5 版本的 Midjourney 也有幾個常見的實用指令參數。
--seed 創作系列角色繪圖
有玩過幾次 Midjourney 的同學都會知道,儘管人工智慧可以創造出另人驚豔的作品,但它仍具有很大的隨機生成性。
即使我們輸入了同樣的指令,經過數次反覆的重新算圖,每次輸出的結果都會不相同。
而如果我們想利用 Midjourney 創作系列感的圖文,甚至是漫畫、繪本或動畫,就需要有穩定的人設和角色,並給予人物不同的表情、服裝、動作、場景。
使用 — seed 指令算出能夠有連貫性的角色或畫風,提高在創作上的更多應用可能。
為了做到這件事情,我們在輸入 prompt 就需要使用固定的單字,以及特殊的命令和參數,這在 Midjourney 算是稍微進階一點的技巧。
第一步是先照往常一樣 /imagine 要製作的圖,好了之後我們 U 一張喜歡的 ,並拖曳圖片網址到 prompt 欄位。
接著就可以再一次的 /imagine 並貼上圖片網址,再輸入描述詞,這邊可以跟原圖相同並做一些修改,就可以以原本的圖作為基礎、再去做變化。
第二步則是能夠將原本的參數設定沿用,對算出來的圖給予一個信封的 emoji 取得 Seed 數值,並在 prompt 後面加上 — seed 數字,就可以保持這組生成的初始參數。
與第一步的網址可以搭配使用,讓圖片有更一致的構圖和畫風,這個概念有點類似影片後製中的二級調色。所以可以將圖片網址重複利用和 Seed 參數 當作是 AI 繪圖中的二級生成技巧,這麼一來就可以用於繪製相同人物的系列作品。
人工智慧生成的隨機性
不過這邊還是要曉得 AI 繪圖一個重點,就是「隨機性」。
這些圖產出的原理,來自既有作品的重新理解、解構、分析,再重新組合而成。
而每次 AI 計算渲染出來的結果,都不會相同,也就是說即便我們使用相同的描述詞,重複貼上、反覆生成,也不會有完全一樣的結果。
反過來說,一幅優秀的 AI 繪圖,也不是一次詠唱就會蹦出來的,背後可能會經過幾十次,甚至上百次反覆實驗與調教,才能得到一張滿意的圖。
而說到調教,目前版本的 Midjourney 在送出指令後,等待一下渲染出圖,會有 U1 到 U4,和 V1 到 V4 的選項。
1, 2, 3, 4 對應到產生的四張圖片順時針順序,U 是指以這張為基礎去做最佳化,V 則是去做變化,會重新 render 新的四張圖。
如果不想看到這個結果,是沒辦法刪除訊息,但這時候可以用加入反應送它一個 ❌ 就能移除訊息了。
以上是 Midjourney 的基本理解和操作,而在下一篇我們會聊到動漫版本的 Nijijourney,如果想做出電腦繪圖感的圖片或插圖,Niji 可以幫上大忙。