机器学习:非监督学习

关于分析数据的对话

中级

大约 1 个月

6小时每周 (自主学习)

由以下企业参与制作:
加入成千上万的全球学员

开始免费课程

加入课程
免费
可享受
课程视频
实战练习
中级

大约 1 个月

6小时每周 (自主学习)

由以下企业参与制作:
加入成千上万的全球学员
观看机器学习:非监督学习课程介绍
观看视频

课程概述

你是否曾想过 Netflix 如何能预测你喜欢的电影,Amazon 如何知道你想买的东西?答案就在非监督学习!

非监督学习与模式识别密切相关,用于分析数据和寻找模式。它是用于识别数据结构的非常强大的工具。本课程的重点是如何使用非监督学习方法,包括随机优化、聚类和特征选择与转换,以找出未标记数据的结构。

喜欢这门课程?加入“机器学习工程师”纳米学位。

为什么学习这门课程?

你将学习和实践各种非监督学习的方法,包括:随机优化、聚类、特征选择和转换,以及信息论。

你会学到重要的机器学习方法、技术和最佳实践,并在此课程中通过最终项目的动手实践获得实现它们的经验,你将在最终项目中设计一个电影推荐系统(就像 Netflix!)。

先修要求

参加此课程即假定你有编程经验,因为你将用到 python 库,如 numpy 和 scikit。除此之外,要求熟悉概率和统计学。如需复习这些方面,可查看优达学城的统计学入门课程。

我们的人工智能导论课程也为此课程提供了有用的背景知识。

查看使用优达学城的技术要求

学习计划

第 1 课:随机优化

  • 优化、随机
  • 爬山
  • 随机重复爬山法
  • 模拟退火
  • 退火算法
  • 模拟退火的性质
  • 遗传算法
  • 遗传算法骨架
  • 交叉示例
  • 我们学到了什么
  • MIMIC 算法
  • MIMIC 算法:一种概率模型
  • MIMIC 算法:伪代码
  • MIMIC 算法:估计分布
  • 寻找依赖树
  • 概率分布

第 2 课:聚类

  • 聚类和期望最大化
  • 基本聚类问题
  • 单联聚类 (SLC)
  • SLC 的运行时间
  • SLC 的问题
  • K-均值聚类
  • 欧氏空间中的 K-均值
  • K-均值作为优化
  • 软聚类
  • 最大似然高斯分布
  • 最大期望 (EM) 算法
  • 不可能定理

第 3 课:特征选择

  • 算法
  • 过滤和包裹
  • 速度
  • 搜索
  • 相关性
  • 相关性与实用性

第 4 课:特征转换

  • 特征转换
  • Tesla 等词的意义
  • 主成分分析
  • 独立成分分析
  • 鸡尾酒会问题
  • 矩阵
  • 备选

第 5 课:信息论

  • 历史 - 发送消息
  • 期望的消息大小
  • 两个变量之间的信息
  • 互信息
  • 两枚独立硬币
  • 两枚相依硬币
  • KL 散度

非监督学习项目

讲师与合作伙伴

Charles Isbell

Charles Isbell

Charles Isbell 是佐治亚理工学院交互式计算学院的教授和高级副院长。他热衷于研究人工智能,特别是在创建必须与大量其他智能代理程序(一些程序可能是人类)共存与互动的自动代理程序方面。最近,他的精力转向了自适应建模,尤其是在活动发现(不同于活动识别)、可扩展协作、支持自适应代理程序快速原型设计的开发环境方面。他正在开发适应性编程语言,试图理解向非专业作家,设计师和开发人员提供机器学习工具的意义。他有时也参与回力网球、举重和极限飞盘活动。

Michael Littman

Michael Littman

Michael Littman 是布朗大学计算机科学教授。他也讲授优达学城在处理社交网络的算法课程(CS215)。在2012年加入布朗大学之前,他于2009年-2012年期间担任罗格斯大学计算机科学系主任,领导了罗格斯实验室实际强化学习(RL3)项目。他是美国人工智能协会 (AAAI) 研究员,曾担任 AAAI 2013年会议及2009年机器学习国际会议的程序主席,并获得了杜克大学和罗格斯大学的校级教学奖。Charles Isbell 曾教授他对回力网球、举重和极限飞盘,但是他并不擅长其中的任何一项。不过他却非常擅长歌唱和杂技。

Pushkar Kolhe

Pushkar Kolhe

Pushkar Kolhe 前正在佐治亚理工学院攻读计算机科学博士学位。他认为机器学习将帮助他创建获得奇点的人工智能。除了致力于这个问题外,他也参与攀爬、跳跃或滑雪活动。

官方微信公众号二维码

优达学城(Udacity)微信