AI Ethics
AI
จริยธรรม
Responsible AI
Bias

AI Ethics: จริยธรรม AI ที่ทุกคนควรรู้

เรียนรู้หลักจริยธรรม AI ตั้งแต่ความเป็นธรรม ความโปร่งใส ความเป็นส่วนตัว ไปจนถึงความรับผิดชอบ พร้อมกรณีศึกษาและแนวทางปฏิบัติ

AI Unlocked Team
14/01/2568
AI Ethics: จริยธรรม AI ที่ทุกคนควรรู้

AI Ethics: จริยธรรม AI ที่ทุกคนควรรู้

เมื่อ AI เข้ามามีบทบาทในชีวิตประจำวันมากขึ้น ตั้งแต่การตัดสินใจอนุมัติสินเชื่อ การคัดเลือกพนักงาน ไปจนถึงการวินิจฉัยโรค คำถามสำคัญที่ต้องตอบคือ: AI ทำงานอย่างเป็นธรรมและรับผิดชอบหรือไม่?

ทำไม AI Ethics ถึงสำคัญ?

AI มีอิทธิพลต่อชีวิตคน

การตัดสินใจของ AI ที่ส่งผลต่อชีวิต:
- อนุมัติ/ปฏิเสธสินเชื่อ
- คัดเลือก/ปฏิเสธพนักงาน
- กำหนดประกันสุขภาพ
- ตัดสินคดีความ
- แนะนำการรักษาโรค

ตัวอย่างปัญหาจริง

Amazon Hiring AI (2018)

  • AI ถูกฝึกจากข้อมูลการจ้างงานในอดีต
  • ผลลัพธ์: เลือกปฏิบัติต่อผู้หญิง
  • เหตุผล: อดีตจ้างผู้ชายมากกว่า

COMPAS (Criminal Justice)

  • AI ประเมินความเสี่ยงในการกระทำผิดซ้ำ
  • ผลลัพธ์: ให้คะแนนความเสี่ยงสูงกับคนผิวดำมากกว่า
  • ผลกระทบ: ส่งผลต่อการตัดสินโทษ

หลักจริยธรรม AI 6 ประการ

1. Fairness (ความเป็นธรรม)

AI ไม่ควรเลือกปฏิบัติต่อกลุ่มใดกลุ่มหนึ่ง

❌ ไม่ยุติธรรม:
- AI อนุมัติสินเชื่อให้ผู้ชายมากกว่าผู้หญิง
- AI ให้คะแนนคนผิวขาวสูงกว่า

✅ ยุติธรรม:
- ตัดสินใจตามปัจจัยที่เกี่ยวข้องเท่านั้น
- ผลลัพธ์ไม่แตกต่างตามเพศ เชื้อชาติ

2. Transparency (ความโปร่งใส)

คนควรรู้ว่า AI ตัดสินใจอย่างไร

❌ ไม่โปร่งใส:
"คำขอสินเชื่อของคุณถูกปฏิเสธ"

✅ โปร่งใส:
"คำขอสินเชื่อของคุณถูกปฏิเสธ เนื่องจาก:
- อัตราส่วนหนี้ต่อรายได้สูงกว่า 50%
- ประวัติการชำระเงินล่าช้า 3 ครั้ง"

3. Privacy (ความเป็นส่วนตัว)

AI ต้องเคารพข้อมูลส่วนบุคคล

หลักการ:
- เก็บเฉพาะข้อมูลที่จำเป็น
- ขอความยินยอมก่อนใช้
- ปกป้องข้อมูลอย่างเหมาะสม
- ให้สิทธิ์ลบข้อมูล

4. Accountability (ความรับผิดชอบ)

ต้องมีคนรับผิดชอบเมื่อ AI ทำผิดพลาด

คำถามสำคัญ:
- ถ้ารถ AI ขับชนคน ใครรับผิดชอบ?
- ถ้า AI วินิจฉัยผิด ฟ้องใคร?
- ถ้า AI ปฏิเสธสินเชื่อผิดพลาด ใครชดเชย?

5. Safety (ความปลอดภัย)

AI ต้องไม่สร้างอันตราย

ความปลอดภัยที่ต้องพิจารณา:
- Physical: ไม่ทำร้ายร่างกาย
- Mental: ไม่ทำลายสุขภาพจิต
- Financial: ไม่ทำให้เสียหายทางการเงิน
- Social: ไม่ทำลายความสัมพันธ์สังคม

6. Human Control (การควบคุมโดยมนุษย์)

มนุษย์ต้องสามารถควบคุม AI ได้

Human-in-the-loop:
- AI แนะนำ + มนุษย์ตัดสินใจ
- มนุษย์สามารถ override ได้
- มีปุ่ม "หยุด" เสมอ

ประเภทของ Bias ใน AI

1. Data Bias

ข้อมูลที่ใช้ฝึก AI มีอคติ

ตัวอย่าง:
- ข้อมูลใบหน้าส่วนใหญ่เป็นคนขาว
  → AI จำหน้าคนขาวได้ดีกว่า

- ข้อมูลการจ้างงานมีแต่ผู้ชาย
  → AI เลือกผู้ชายมากกว่า

2. Algorithm Bias

อัลกอริทึมมีข้อบกพร่อง

ตัวอย่าง:
- ให้น้ำหนักรหัสไปรษณีย์
  → กลายเป็นเลือกปฏิบัติตามเชื้อชาติ
  (เพราะบางพื้นที่มีคนผิวดำอยู่มากกว่า)

3. Interaction Bias

AI เรียนรู้จากการใช้งานที่มีอคติ

ตัวอย่าง:
- Microsoft Tay (2016)
- Chatbot เรียนรู้จาก Twitter
- ผู้ใช้สอนให้พูดเหยียดเชื้อชาติ
- ต้องปิดตัวภายใน 24 ชั่วโมง

4. Selection Bias

เลือกข้อมูลไม่ครอบคลุม

ตัวอย่าง:
- ฝึก AI แพทย์จากโรงพยาบาลในเมืองเท่านั้น
- ไม่มีข้อมูลโรคที่พบในชนบท
- ผลลัพธ์: วินิจฉัยผิดในพื้นที่ชนบท

แนวทางการสร้าง Responsible AI

1. การเก็บข้อมูลอย่างรับผิดชอบ

checklist = {
    "diverse_sources": True,      # แหล่งข้อมูลหลากหลาย
    "balanced_representation": True,  # กระจายทุกกลุ่ม
    "consent_obtained": True,     # ได้รับความยินยอม
    "privacy_protected": True,    # ปกป้องความเป็นส่วนตัว
    "regularly_updated": True     # อัปเดตสม่ำเสมอ
}

2. การทดสอบ Fairness

# ตรวจสอบความเท่าเทียม
def check_fairness(model, test_data):
    results = {}

    for group in ['male', 'female', 'white', 'black', 'asian']:
        group_data = test_data[test_data['group'] == group]
        accuracy = model.evaluate(group_data)
        results[group] = accuracy

    # ตรวจสอบว่าผลลัพธ์ต่างกันมากไหม
    max_diff = max(results.values()) - min(results.values())

    if max_diff > 0.1:  # ต่างกันเกิน 10%
        return "UNFAIR: กรุณาตรวจสอบ"

    return "FAIR"

3. Explainable AI (XAI)

# ใช้ SHAP เพื่ออธิบายการตัดสินใจ
import shap

explainer = shap.Explainer(model)
shap_values = explainer(X_test)

# แสดงปัจจัยที่มีผลต่อการตัดสินใจ
shap.plots.waterfall(shap_values[0])

4. Human Oversight

Workflow แนะนำ:

       AI ประมวลผล
            ↓
     ผลลัพธ์ + คำอธิบาย
            ↓
      มนุษย์ตรวจสอบ
            ↓
       ตัดสินใจสุดท้าย

กรณีศึกษา: การใช้ AI อย่างมีจริยธรรม

กรณีที่ 1: Healthcare AI

ปัญหา: AI วินิจฉัยมะเร็งผิวหนัง

ความท้าทาย:
- ข้อมูลส่วนใหญ่มาจากผิวขาว
- ความแม่นยำต่ำกับผิวสี

แนวทางแก้ไข:
1. เก็บข้อมูลเพิ่มจากทุกสีผิว
2. ทดสอบแยกตามกลุ่มผิว
3. ให้แพทย์ตรวจสอบทุกครั้ง
4. เปิดเผยข้อจำกัด

กรณีที่ 2: Hiring AI

ปัญหา: AI คัดเลือกพนักงาน

ความท้าทาย:
- อาจมี bias จากข้อมูลอดีต
- อาจเลือกปฏิบัติโดยไม่ตั้งใจ

แนวทางแก้ไข:
1. ลบข้อมูลเพศ อายุ เชื้อชาติ
2. ตรวจสอบ proxy variables
3. Audit ผลลัพธ์สม่ำเสมอ
4. ให้ HR ตัดสินใจสุดท้าย

กรณีที่ 3: Content Moderation

ปัญหา: AI ตรวจจับเนื้อหาไม่เหมาะสม

ความท้าทาย:
- ภาษา/วัฒนธรรมแตกต่าง
- บริบทสำคัญ
- False positives สูง

แนวทางแก้ไข:
1. ฝึกกับข้อมูลหลายภาษา/วัฒนธรรม
2. พิจารณาบริบท ไม่ใช่แค่คำ
3. มีทีมมนุษย์ตรวจสอบ
4. มีช่องทางอุทธรณ์

Framework สำหรับ AI Ethics

EU AI Act

ระดับความเสี่ยง:
1. Unacceptable: ห้ามใช้ (เช่น Social Scoring)
2. High-risk: ต้องมีการกำกับเข้มงวด
3. Limited risk: ต้องโปร่งใส
4. Minimal risk: ไม่มีข้อจำกัด

IEEE Ethically Aligned Design

หลักการ:
1. Human Rights
2. Well-being
3. Data Agency
4. Effectiveness
5. Transparency
6. Accountability
7. Awareness of Misuse
8. Competence

Google AI Principles

หลักการ:
1. Be socially beneficial
2. Avoid creating or reinforcing unfair bias
3. Be built and tested for safety
4. Be accountable to people
5. Incorporate privacy design principles
6. Uphold high standards of scientific excellence
7. Be made available for uses that accord with these principles

เริ่มต้นทำ AI อย่างมีจริยธรรม

Checklist สำหรับนักพัฒนา

□ ข้อมูลที่ใช้มีความหลากหลายเพียงพอหรือไม่?
□ ตรวจสอบ bias ในข้อมูลแล้วหรือยัง?
□ โมเดลสามารถอธิบายได้หรือไม่?
□ ทดสอบกับกลุ่มต่างๆ แล้วหรือยัง?
□ มีกระบวนการ human review หรือไม่?
□ ผู้ใช้รู้ว่ากำลังโต้ตอบกับ AI หรือไม่?
□ มีช่องทางรับเรื่องร้องเรียนหรือไม่?
□ มีแผนการตรวจสอบหลัง deploy หรือไม่?

Checklist สำหรับองค์กร

□ มีนโยบาย AI Ethics ชัดเจนหรือไม่?
□ มีทีม/บุคคลรับผิดชอบ AI Ethics หรือไม่?
□ มีการอบรมพนักงานหรือไม่?
□ มีกระบวนการ audit AI หรือไม่?
□ มีช่องทางให้ผู้มีส่วนได้เสียแสดงความคิดเห็นหรือไม่?

สรุป

AI Ethics สำคัญเพราะ AI มีผลต่อชีวิตคนจริง

หลักการสำคัญ 6 ประการ:

  1. Fairness: ไม่เลือกปฏิบัติ
  2. Transparency: อธิบายได้
  3. Privacy: เคารพความเป็นส่วนตัว
  4. Accountability: มีผู้รับผิดชอบ
  5. Safety: ไม่สร้างอันตราย
  6. Human Control: มนุษย์ควบคุมได้

การทำ AI อย่างมีจริยธรรม:

  • เก็บข้อมูลอย่างรับผิดชอบ
  • ทดสอบ fairness
  • ทำให้ AI อธิบายได้
  • มี human oversight

อ่านเพิ่มเติม:


เขียนโดย

AI Unlocked Team