前置作業
- Stable Diffusion WebUI 安裝
- 安裝ControlNet
- 下載室內設計模型 放到主程式資料夾下的/models/Stable-diffusion資料夾。
- 執行 Stable Diffusion WebUI – webui-user.bat
- 開啟 http://127.0.0.1:7860
讓我們開始產生第一張AI設計的3D圖片

然後按下列的步驟執行-





以住家廚房為範例





以住家房間為範例




以商業空間為範例




參數說明
- Stable Diffusion checkpoint : 安裝室內設計模型 XSarchitectural-v11。
- PROMPT : 關鍵字有「正向」與「負向」,並且要用英文輸入,這需要參考更多的範例來瞭解如何撰寫。
- Width/Height : 預設為 512 x 512。室內設計圖的寬度可以設定768。
- Sampling Steps : 算圖的步數,與畫質正相關外,還會影響構圖或細節。
- CFG scale : CFG 代表 Classifier Free Guidance scale。CFG 是控制 Stable Diffusion 與您的文本提示的接近程度的設置。它應用於文本到圖像 (txt2img) 和圖像到圖像 (img2img) 生成。理論上,CFG 值越高,它就越嚴格地按照您的提示進行操作。默認值為 7,這在創作自由和遵循您的方向之間提供了良好的平衡。值為 1 將賦予穩定擴散幾乎完全的自由度,而高於 15 的值則相當受限。
- Batch count : 一次計算同時產出幾張圖片。
- Seed : 假設算出一張不錯的圖,想要固定構圖,並調整其他參數時,可以點輸入框旁邊的回收按紐,會填入此次 Seed 值,在新產出的畫面就能維持類似的構圖。
- Sampling method : 常用的是 DPM++ 2M Karras、DPM++ SDE Karras 和 Euler。
ControlNet參數說明:
- 勾選enable,才會啟動Controlnet。
- Preprocessor的意思是要先對圖片做哪一種模式的預處裡。在本文範例中皆使用 lineart_realistic。
- Model則是會已選定的模式去告訴AI該怎麼畫,原則上你Preprocessor選甚麼Model就選甚麼,除非你知道你自己丟進去的圖片可以對應哪個Model。在本文範例中皆使用 MLSD。
- 其他的ControlNet參數請參考範例圖片或使用預設值。
AI是現在進行式:
補充說明:
提示詞範例: “interior design, bedroom, high resolution photography, ultradetail, cozy atmosphere”
空間提示詞:
living room / bedroom / bathroom / kitchen / dinning room / study room / home office / gaming room / attic / penhouse / outdoor pool area / outdoor patio / outdoor garden / coworking space / meeting room / workshop
/ fitness gym / coffee shop / clothing store / resturant / office / hotel lobby / hotel room / hotel bathroom / exhibition space / onsen
裝修風格提示詞:
minimalist / nordic / affordable luxury / wabisabi / modern / neoclassic / medieval / farmhouse / retro / halloween / french country / vintage / coastal / japanese design / tribal / rustic / baroque / vaporwave / art nouveau /sketch / maximalist / ski chalet / contemporary / cyberpunk / art deco / scandinavian / bohemian / cottagecore /industrial / biophilic / midcentury modern / zen / tropical / christamas