课程大纲

Explainable AI (XAI) 和模型透明度简介

  • 什么是可解释的 AI?
  • 为什么透明度在 AI 系统中很重要
  • AI 模型中的可解释性与性能

XAI 技术概述

  • 与模型无关的方法:SHAP、LIME
  • 特定于模型的可解释性技术
  • 解释神经网路和深度学习模型

构建透明的 AI 模型

  • 在实践中实现可解释模型
  • 比较透明模型与黑盒模型
  • 平衡复杂性与可解释性

高级 XAI 工具和库

  • 使用 SHAP 进行模型解释
  • 利用 LIME 实现本地可解释性
  • 模型决策和行为的可视化

解决公平、偏见和道德 AI 问题

  • 识别和减少 AI 模型中的偏见
  • AI 的公平性及其社会影响
  • 确保 AI 部署中的问责制和道德规范

XAI 的实际应用

  • 医疗保健、金融和政府领域的案例研究
  • 解释 AI 模型以实现监管合规性
  • 通过透明的 AI 系统建立信任

可解释 AI 的未来方向

  • XAI 的新兴研究
  • 为大型系统扩展 XAI 的挑战
  • 透明 AI 的未来机遇

总结和后续步骤

要求

  • 机器学习和 AI 模型开发经验
  • 熟悉 Python 程式设计

观众

  • 数据科学家
  • 机器学习工程师
  • AI 专家
 21 小时

即将举行的公开课程

课程分类