AI ImageControlNetStable Diffusionเครื่องมือ AI

ControlNet คืออะไร? ควบคุม AI สร้างภาพให้ได้ตามต้องการ

เรียนรู้ ControlNet เครื่องมือควบคุม AI สร้างภาพ ตั้งแต่พื้นฐานจนถึงการใช้งานจริง เหมาะสำหรับมือใหม่

AI Unlocked Team
02/03/2568
ControlNet คืออะไร? ควบคุม AI สร้างภาพให้ได้ตามต้องการ

ControlNet คืออะไร? ควบคุม AI สร้างภาพให้ได้ตามต้องการ

ปัญหาใหญ่อย่างหนึ่งของการใช้ AI สร้างภาพคือ "ควบคุมยาก" เขียน prompt ไปแล้วก็ลุ้นว่า AI จะสร้างออกมาตรงใจมั้ย บางทีต้องลองหลายสิบครั้งกว่าจะได้รูปที่ต้องการ

ControlNet เข้ามาแก้ปัญหานี้ค่ะ! มันเป็นเทคโนโลยีที่ทำให้เราควบคุม AI สร้างภาพได้แม่นยำมากขึ้น ไม่ว่าจะเป็น pose ของคน, ขอบวัตถุ, หรือแม้แต่แสงเงา

ControlNet คืออะไร?

ControlNet เป็น neural network model ที่ทำงานร่วมกับ Stable Diffusion เพื่อเพิ่มความสามารถในการ "ควบคุม" การสร้างภาพ

แทนที่จะปล่อยให้ AI สุ่มสร้างภาพจาก prompt อย่างเดียว ControlNet ให้เราส่ง "ภาพควบคุม" (control image) เข้าไปด้วย เพื่อบอก AI ว่าต้องการให้ภาพออกมาเป็นยังไง

ตัวอย่างการทำงาน

สมมติคุณมีภาพคนยืนโพสท่า แล้วอยากให้ AI สร้างภาพใหม่ที่มีท่าเหมือนกันแต่เป็นคนละคน:

  1. Input: ภาพต้นฉบับ (คนโพสท่า)
  2. ControlNet: แปลงเป็น pose skeleton (ภาพเส้นแท่ง)
  3. Prompt: "a beautiful woman in red dress, studio lighting"
  4. Output: ภาพผู้หญิงชุดแดง โพสท่าเหมือนกับภาพต้นฉบับ

ประเภทของ ControlNet

ControlNet มีหลายประเภท แต่ละประเภทใช้ภาพควบคุมต่างกันค่ะ:

1. OpenPose (Pose Detection)

ตรวจจับท่าทางของคนในภาพ แล้วสร้างภาพ skeleton ที่แสดง pose

ใช้เมื่อ: ต้องการให้คนในภาพใหม่มี pose เหมือนภาพต้นฉบับ

ตัวอย่างการใช้:

  • สร้างภาพโมเดลหลายคนในท่าเดียวกัน
  • ทำ product photography ที่ต้องการ pose เฉพาะ
  • สร้าง animation frames ที่ต่อเนื่องกัน

2. Canny Edge (Edge Detection)

ตรวจจับขอบ (edges) ของวัตถุในภาพ

ใช้เมื่อ: ต้องการรักษารูปทรงของวัตถุ แต่เปลี่ยน style

ตัวอย่างการใช้:

  • เปลี่ยนภาพถ่ายเป็นภาพการ์ตูน
  • สร้างภาพใหม่โดยรักษาโครงสร้างเดิม
  • ทำ concept art จาก sketch

3. Depth Map (Depth Detection)

ตรวจจับความลึกของภาพ (อะไรอยู่ใกล้-ไกล)

ใช้เมื่อ: ต้องการรักษา perspective และ depth

ตัวอย่างการใช้:

  • สร้างภาพห้องในหลาย style แต่รักษา layout เดิม
  • ทำ architectural visualization
  • สร้างภาพ landscape ที่มี depth สมจริง

4. Scribble / Sketch

ใช้ภาพ sketch หยาบๆ เป็น guide

ใช้เมื่อ: วาด sketch คร่าวๆ แล้วให้ AI ทำให้สวย

ตัวอย่างการใช้:

  • วาดรูปด้วยมือแล้วให้ AI refine
  • สร้าง concept art จาก rough sketch
  • ทดลอง composition ก่อนทำภาพจริง

5. Segmentation

แบ่งภาพออกเป็นส่วนๆ ตาม semantic (คน, พื้นหลัง, วัตถุ)

ใช้เมื่อ: ต้องการควบคุมว่าแต่ละส่วนของภาพเป็นอะไร

ตัวอย่างการใช้:

  • กำหนดว่าพื้นที่ไหนเป็นคน ที่ไหนเป็นพื้นหลัง
  • สร้างภาพที่มี composition ซับซ้อน
  • ทำ scene composition แบบละเอียด

6. Lineart

ตรวจจับเส้นขอบแบบ clean line art

ใช้เมื่อ: ต้องการ style แบบ anime หรือ illustration

ตัวอย่างการใช้:

  • สร้างภาพ anime จาก sketch
  • ทำ coloring จาก line art
  • แปลง manga เป็นภาพสี

7. Normal Map

ตรวจจับ surface normal (ทิศทางของ surface)

ใช้เมื่อ: ต้องการรักษา lighting และ surface detail

ตัวอย่างการใช้:

  • สร้างภาพที่มี realistic lighting
  • ทำ product rendering
  • Re-light ภาพเดิมด้วยแสงใหม่

วิธีใช้ ControlNet (สำหรับมือใหม่)

ใช้ผ่าน Stable Diffusion WebUI

  1. ติดตั้ง Stable Diffusion WebUI (เช่น AUTOMATIC1111)

  2. ติดตั้ง ControlNet Extension

    • ไปที่ Extensions > Install from URL
    • ใส่ URL ของ ControlNet extension
    • Restart WebUI
  3. ดาวน์โหลด ControlNet Models

    • ดาวน์โหลด model ที่ต้องการ (เช่น openpose, canny)
    • วางในโฟลเดอร์ models/ControlNet
  4. ใช้งาน

    • เปิด ControlNet panel
    • อัปโหลดภาพควบคุม
    • เลือก preprocessor (เช่น openpose)
    • เลือก model
    • เขียน prompt แล้วสร้างภาพ

ใช้ผ่านบริการ Online

สำหรับคนที่ไม่อยากติดตั้งอะไร มีบริการออนไลน์ที่รองรับ ControlNet:

1. Leonardo AI

  • มี Pose to Image, Image to Image with control
  • ใช้งานง่าย ไม่ต้องติดตั้งอะไร

2. Playground AI

  • รองรับ ControlNet หลายประเภท
  • มี free tier ให้ใช้

3. RunwayML

  • มี Gen-2 ที่รองรับ image control

4. Clipdrop (Stable Diffusion)

  • มี Reimagine ที่ใช้หลักการคล้ายกัน

เทคนิคการใช้ ControlNet ให้ได้ผลดี

1. ปรับ Control Weight

Control Weight คือค่าที่บอกว่า AI ต้องยึดตามภาพควบคุมมากแค่ไหน

  • สูง (1.0+): ยึดตามภาพควบคุมมาก แต่ภาพอาจดู stiff
  • กลาง (0.5-0.8): สมดุลระหว่างควบคุมและความ creative
  • ต่ำ (น้อยกว่า 0.5): AI มีอิสระมากขึ้น ภาพอาจไม่ตรงตาม control

2. ใช้หลาย ControlNet พร้อมกัน

สามารถใช้ ControlNet หลายตัวพร้อมกันได้ เช่น:

  • OpenPose (ควบคุม pose) + Depth (ควบคุม perspective)
  • Canny (ควบคุมขอบ) + Segmentation (ควบคุมพื้นที่)

3. เลือก Preprocessor ให้เหมาะ

แต่ละ ControlNet มี preprocessor หลายแบบ ลองใช้หลายแบบแล้วดูว่าแบบไหนได้ผลดีที่สุด

4. ปรับ Starting Control Step

กำหนดว่า ControlNet จะเริ่มทำงานที่ step ไหน:

  • เริ่มเร็ว (0): ควบคุมตั้งแต่ต้น
  • เริ่มช้า (0.2-0.5): ให้ AI สร้าง base ก่อน แล้วค่อยควบคุม

5. ปรับ Ending Control Step

กำหนดว่า ControlNet จะหยุดทำงานที่ step ไหน:

  • หยุดช้า (1.0): ควบคุมจนจบ
  • หยุดเร็ว (0.5-0.8): ให้ AI refine detail ตอนท้าย

ตัวอย่าง Use Cases จริง

1. Product Photography

  • ถ่ายภาพสินค้าในท่าปกติ
  • ใช้ Depth + Canny เป็น control
  • เปลี่ยนพื้นหลังและ lighting ได้ไม่จำกัด

2. Character Art

  • วาด sketch คร่าวๆ
  • ใช้ Scribble หรือ Lineart เป็น control
  • ได้ภาพสวยๆ จาก sketch หยาบๆ

3. Architecture Visualization

  • ถ่ายภาพห้องว่าง
  • ใช้ Depth เป็น control
  • สร้าง interior design หลายแบบจาก layout เดียว

4. Fashion Design

  • ใช้ OpenPose จากโมเดลในท่าต่างๆ
  • เปลี่ยนเสื้อผ้าได้ไม่จำกัด
  • รักษา pose เดิมไว้

5. Animation / Video

  • ใช้ OpenPose จากแต่ละ frame ของวิดีโอ
  • สร้างภาพ stylized ที่ต่อเนื่องกัน
  • ทำ animation ที่มี style สม่ำเสมอ

ข้อจำกัดของ ControlNet

  1. ต้องมี GPU แรง - ถ้ารันเอง ต้องมี GPU ที่มี VRAM เยอะ
  2. Learning Curve - ต้องเรียนรู้ว่าใช้ ControlNet ไหนเมื่อไหร่
  3. ไม่ Perfect - บางทียังไม่ตรงตาม control 100%
  4. ใช้เวลานานขึ้น - Generate ช้ากว่าไม่ใช้ ControlNet

สรุป

ControlNet เป็นเครื่องมือที่ทรงพลังมากสำหรับคนที่ต้องการควบคุม AI สร้างภาพ ไม่ว่าจะเป็น:

  • OpenPose - ควบคุม pose ของคน
  • Canny - ควบคุมขอบวัตถุ
  • Depth - ควบคุม perspective
  • Scribble - ใช้ sketch เป็น guide

ถ้าคุณรู้สึกว่า AI สร้างภาพยังควบคุมยาก ลอง ControlNet ดูค่ะ จะเปิดโลกใหม่ให้คุณเลย!


อยากเรียนรู้ ControlNet และ AI สร้างภาพแบบเจาะลึก?

ถ้าคุณอยากเรียนรู้การใช้ ControlNet, Stable Diffusion, และเทคนิคการสร้างภาพด้วย AI อย่างละเอียด เรามีคอร์ส AI ที่สอน AI เชียงใหม่ แบบลงมือปฏิบัติจริง มี workshop ให้ทดลองใช้เครื่องมือต่างๆ พร้อมผู้เชี่ยวชาญคอยให้คำแนะนำค่ะ

👉 ดูรายละเอียดคอร์สสอน AI ได้ที่นี่

เขียนโดย

AI Unlocked Team

บทความอื่นๆ ที่น่าสนใจ