2023-04-03

Stable Diffusion 比 Midjourney 更好用的 5 項功能

為什麼是 "還沒有" 而不是 "沒有" 呢 ? 因為阿舍有聽說 Midjourney 可能也會推出 Web 的操作界面,而一旦 Midjournal 開始有 Web 操作界面後,那麼受限於 Discord 操作方式的功能就可以開始提供了,不過,以阿舍的觀察看來,提不提供和要提供怎樣的 Web 操作界面給使用者,對 MiJourney 來說,應該是一個不小的學問,因為,以 Discord 提供的操作界面某種程度上,可以讓免費和收費的使用者在價值認知上,產生一種微妙的平衡感 ...


Midjourney 是高性能電動車 Stable Diffusion 是改裝跑車

如果用過 Midjourney 的人,應該會發現,Midjourney 不需要太複雜的提示詞就能產出相當水準的的圖片品質,而前陣子推出的 Midjourney V5 在圖片成像品質及對提示詞的理解能力上又大大的提升不少,現在階段看來,比起讓 Midjourney 有更多神奇的操作功能,專心讓 Midjourney 可以讀懂簡短提示詞 (Prompt) 的真正意圖以產出高品質圖像才是 Midjourney 現階段努力的方向,會比較符合付費用戶的期望。

Stable Diffusion 基於開放原始碼的本質加上活躍的社群和簡單的安裝方式,要在自己的雲端上的電腦安裝和使用,都不算太難,但是,想要像 Midjourey 那樣的幾提示詞就產出想像中的圖像,可能就要多花點時間了,但不是做不到,而是做到的方式有很多選擇和方法,而且,參數都可以自己調整,因此,就得要花點時間學習和試錯來組合出自己想要或喜歡的專屬 AI 繪製工具,話雖如此,但也不要誤會,Stable Diffusion 基本上,還是裝好就立即可用的。 

Midjourney 還沒有的功能

Stable Diffusion 社群十分活躍,新功能不斷透過擴充 (Extension) 推陳出新,阿舍沒打算一一說明,一個原因是太多寫不完,另一個是對 Midjourney 不公平,所以,以下是阿舍就自己在 Midjourney 和 Stable Diffusion 上的使用經驗,整理出下列幾項比較實用和明顯的功能差異, 

1. 指定區域修圖 (Inpaint)

Midjourney 現階段已經有圖產圖 (Img2Img) 的功能,除了用上傳圖片產生新圖,也可以上傳手繪稿 (Sketch) 產生圖像及上傳多張圖片混合(Blend/Remix)產生新圖片的功能,上述這些 Midjourney 有的功能,Stable Diffusion 都有,但是,多出一個 Inpaint 的功能,這功能可以在現有的圖片上,用筆刷畫出一個區域當做遮罩(Mask),然後,請 AI 幫忙對這個區域內的圖像內容做修改。

舉個例子來說,最容易理解的運作方式及用法的例子,就是,很多人會利用這樣的功能來幫圖片裡的人物換衣服或變換飾品。

2. 圖片放大並填充 (outpaint)

Midjourney 本來也就有放大尺寸 (Upscale) 的功能,要說明一下,這裡的放大不是單純的把 512x512 放大成 1024x1024 這樣的尺寸變更而已,而是不失真的放大,透過 AI 演算,讓放大後的圖仍保有高品質的成像,這樣的功能 Stable Diffusion 也有,而且,多了一個自動填充的功能,就是,圖雖然要放大,但原內容不動,要請 AI 幫忙把圖放大的空間自動填滿,但也不是填色而已,是請 AI 填入符合原圖內容的物件來形成一張指定大小的圖片。

舉個應用例子來說,像是原本是一片森林的圖,放大後,可能會有點空虛,這時,就可以用這項功能來讓森林長出更多樹,讓森林變的更大片。

3. 指定人物姿勢

Midjourney 目前還沒有相似的功能,不過,提這一項對 Midjouney 可能有點不公平,但是,這個功能幾乎已經是 Stable Diffusion 各種 Web UI (操作界面) 版本的標準配備了,也很實用,用途是讓創作者可以直接拉出想要的人體姿勢或上傳參考的人體姿勢圖,然後,AI 就會用這個給的人體姿勢搭配提示詞產出想要的姿勢或動作。

如果沒有這項工具,光是用提示詞來描述,可能就要弄到天昏地暗了,再加上英文又不太好的情況下,想要寫出正確的提示詞可能會弄到 "天攏歐幾併" 了。(話說,在 Stable Diffusion 上也有人推出多國語言提示詞的擴充可用...)

4. 訓練新模組

這項功能也是很多人會使用 Stable Diffusion 的原因之一,同時,也是 Stable Diffusion 推出新模組之快速的原因,Stable Diffusion WebUI 目前支援多種用圖片訓練新模組的技術,許多的訓練技術幾乎只要 10 - 20 張圖片就對一個物件或人物訓練出立即可用的模組。

5. 模組與擴充

Midjournal 應該不是做不到可使用第三方模組的功能,而是,這樣做可能很難讓 Midjourney 確保產出的圖片品質,畢竟,Midjourney 在服務背後所提供的優化模組是 Midjourney 服務的價值之一,如果提供可以讓用戶自己訓練模組,這樣,Midjourney 就可能從線上服務變成平台了,便容易失去利基了,但是,擴充的部份,也許有可能,就像 ChatGPT 的 Plugin 那樣,可以增加 Midjournal 功能的實用性。

結語: 選擇不會太困難

電動車基本上只要等車廠更新軟體就可以有新功能或新設定可用,而傳統油車需要透過改裝和調校來增加原來沒有或沒出現的馬力,就像 Midjouney 和 Stable Diffusion 二者所面對的用戶群是不太一樣的,只是都是 AI 繪圖工具,如果是用來純創作和商業應用 ( Midjourney 支援 UI/UX 設計),阿舍會建議花點預算用 Midjourney 會比較有效率和效果,而如果是想利用 AI 修圖和改圖,選擇有 Web 操作界面的 Stable Diffusion 操作會比較方便,工具也會比較多可用。 

又想要魚與熊掌得兼? 就又是預算、時間和機會成本的問題囉 ! .... 🫢

(續) Stable Diffusion 如何使用 /describe 圖生文



推薦閱讀


有疑問? 問題還是沒解決嗎? 歡迎下方留言提問和討論 😁

沒有留言 :

張貼留言

歡迎留言提問和討論 .... 😁