课程大纲

Ollama 简介

  • 什么是 Ollama 以及它如何运作?
  • 在本地运行 AI 模型的好处
  • 支援的 LLM 概览(Llama、DeepSeek、Mistral 等)

安装与设定 Ollama

  • 系统需求与硬体考量
  • 在不同作业系统上安装 Ollama
  • 配置依赖项与环境设定

在本地运行 AI 模型

  • 下载并载入 Ollama 中的 AI 模型
  • 通过命令列与模型互动
  • 本地 AI 任务的基本提示工程

优化效能与资源使用

  • 管理硬体资源以实现高效的 AI 执行
  • 减少延迟并提升模型回应时间
  • 为不同模型进行效能基准测试

本地 AI 部署的 Use Case

  • AI 驱动的聊天机器人与虚拟助理
  • 数据处理与自动化任务
  • 注重隐私的 AI 应用

总结与下一步

要求

  • 对AI和机器学习概念有基本了解
  • 熟悉命令列介面

目标受众

  • 在不依赖云端的情况下运行AI模型的开发者
  • Business 对AI隐私和成本效益部署感兴趣的专业人士
  • 探索本地模型部署的AI爱好者
 7 小时

即将举行的公开课程

课程分类