Trustworthiness in Artificial Intelligence
วันอาทิตย์ที่ 24 พฤศจิกายน 2024
เวลา 9.00 – 12.00 น.
พิเศษลงทะเบียนก่อนเริ่มเรียน 14 วัน ได้รับส่วนลดค่าลงทะเบียนทันที !
- สำหรับนักศึกษาปัจจุบัน ม.มหิดล เหลือเพียง 3,510 บาท (จาก 3,900 บาท)
- นักศึกษาสถาบันอื่น เหลือเพียง 4,050 บาท (จาก 4,500 บาท)
- บุคลากร/ ศิษย์เก่า ม.มหิดล/ ผู้ที่เคยอบรมกับ Datalent เหลือเพียง 4,410 บาท (จาก 4,900 บาท)
- บุคคลทั่วไป เหลือเพียง 5,310 บาท (จาก 5,900 บาท)
หลักการและเหตุผล
ในยุคที่ AI มีบทบาทสำคัญในหลากหลายภาคส่วน ความน่าเชื่อถือของระบบ AI เป็นประเด็นที่ได้รับความสนใจอย่างมาก การสร้างความเชื่อมั่นในระบบ AI ไม่เพียงแต่เป็นความท้าทายทางเทคนิค แต่ยังเกี่ยวข้องกับประเด็นทางจริยธรรม สังคม และกฎหมาย หลักสูตรนี้จึงมุ่งเน้นให้ผู้เรียนเข้าใจองค์ประกอบของความน่าเชื่อถือใน AI ตามมาตรฐาน ISO 24028 เพื่อสามารถพัฒนาและจัดการระบบ AI ที่มีความน่าเชื่อถือและปลอดภัย
วัตถุประสงค์
-
- เพื่อให้ผู้เรียนเข้าใจความสำคัญและองค์ประกอบของความน่าเชื่อถือใน AI
- เพื่อให้ผู้เรียนสามารถระบุและจัดการความเสี่ยงในระบบ AI
- เพื่อให้ผู้เรียนเข้าใจการประยุกต์ใช้มาตรฐานคุณภาพซอฟต์แวร์และข้อมูลกับ AI
- เพื่อให้ผู้เรียนตระหนักถึงบทบาทของผู้มีส่วนได้ส่วนเสียในการสร้างความน่าเชื่อถือ
- เพื่อให้ผู้เรียนเข้าใจประเด็นด้านความรับผิดชอบ ความปลอดภัย และการกำกับดูแล AI
หลักสูตรนี้เหมาะกับใครบ้าง
- ผู้บริหารด้านเทคโนโลยี
- นักพัฒนา AI นักวิเคราะห์ข้อมูล
- ผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์
- ผู้ที่มีส่วนเกี่ยวข้องในการพัฒนาและกำกับดูแลระบบ AI
ความรู้พื้นฐาน
ไม่ต้องมีความรู้พื้นฐาน
กำหนดการ
เวลา | หัวข้อหลัก | หัวข้อย่อย |
9.00 – 10.00 | trustworthiness
frameworks |
Recognition of layers of trust |
Application of software and data quality standards | ||
Application of risk management | ||
Hardware-assisted approaches | ||
Stakeholders | Stakeholder types | |
Assets | ||
Values | ||
10.00 – 11.00 | Recognition of high-level concerns | Responsibility, accountability and governance |
Safety | ||
Vulnerabilities, threats and challenges | AI specific security threats | |
AI specific privacy threats | ||
Bias
Unpredictability Opaqueness |
||
11.00 – 12.00 | Challenges | Challenges related to the specification of AI systems
Challenges related to the implementation of AI systems Challenges related to the use of AI systems |
System hardware faults | ||
Mitigation measures | Transparency | |
Explainability
Controllability Strategies for reducing bias Privacy Mitigating system hardware faults Functional safety Testing and evaluation Use and applicability |