課程簡介

可解釋的 AI 簡介

  • 什麼是可解釋的 AI (XAI)?
  • AI 模型中透明度的重要性
  • AI 可解釋性的主要挑戰

基本 XAI 技術

  • 與模型無關的方法:LIME、SHAP
  • 特定於模型的可解釋性方法
  • 解釋黑盒模型做出的決策

使用 XAI 工具動手實踐

  • 開源 XAI 庫簡介
  • 在簡單的機器學習模型中實現 XAI
  • 可視化解釋和模型行為

可解釋性方面的挑戰

  • 準確性與可解釋性權衡
  • 當前 XAI 方法的局限性
  • 處理可解釋模型中的偏差和公平性

XAI 中的道德考慮

  • 瞭解 AI 透明度的道德影響
  • 平衡可解釋性與模型性能
  • XAI 中的隱私和數據保護問題

XAI 的實際應用

  • XAI 在醫療保健、金融和執法領域的應用
  • 可解釋性的法規要求
  • 通過透明度建立對 AI 系統的信任

高級 XAI 概念

  • 探索反事實解釋
  • 解釋神經網路和深度學習模型
  • 解釋複雜的 AI 系統

可解釋 AI 的未來趨勢

  • XAI 研究中的新興技術
  • 未來 AI 透明度的挑戰和機遇
  • XAI 對負責任的 AI 開發的影響

總結和後續步驟

最低要求

  • 對機器學習概念的基本理解
  • 熟悉 Python 程式設計

觀眾

  • AI 初學者
  • 數據科學愛好者
 14 時間:

人數


每位參與者的報價

Provisional Upcoming Courses (Require 5+ participants)

課程分類