数据科学与工程优化(三)
一、最速下降法 最速下降法(Steepest Descent)用于求解无约束优化问题: $$ \min{x \in \mathbb{R}^n} fx $$ 其中 $f: \mathbb{R}^n \to \mathbb{R}$ 是 $L$光滑函数。算法通过迭代更新: $$ x{k+1} = xk + \alphak dk $$...
数据科学与工程优化(二)
一、基本术语和模型 考虑以下优化模型: $$ \min{x \in \mathbb{R}^n} fx \quad \text{s.t.} \quad x \in F $$ 1、最小化点的定义 局部极小点(local minimiser):$x^ \in F$,若存在 $\varepsilon 0$,使得对所有 $x \in ...
数据科学与工程优化(一)
一、课程概述 本课程主要讨论数据科学中的优化问题,包含以下内容: 优化模型的基本形式与实际例子 一阶迭代方法 数据分析中的典型问题与优化方法 二、为什么要用优化? 在数据科学与机器学习中,很多问题都可以归结为优化问题。例如: 回归问题 数据补全问题 数据结构检测 降维问题 数据分类问题 这些问题通...
常见激活函数表达式及其特性
1、Sigmoid 函数 表达式: $$ \sigmax = \frac{1}{1 + e^{x}} $$ 导数: $$ \sigma'x = \sigmax1 \sigmax $$ 特性: 输出区间:$0, 1$ 非线性,可微 在$x \to +\infty$时趋近于1,$x \to \infty$时...
最小二乘法
最小二乘法(Least Squares Method)是一种用于数据拟合的方法,通过最小化观测值与模型预测值之间的误差平方和,来求得模型参数的最优估计。下面以一元线性回归为例,详细推导最小二乘法的过程。 一、问题描述 给定 $n$ 组数据点 $x1, y1, x2, y2, \ldots, xn, yn$,希望用一个线性函数 $$ y...
只使用Numpy实现MNIST手写数字分类
一、实验目的 本实验旨在通过MNIST手写数字分类任务,深入理解和实践深度学习的基本概念与核心算法,具体目标如下: 1、理解深度学习核心概念: (1)掌握神经网络(Neural Networks)的基本结构、前向传播和反向传播机制。 (2)理解梯度下降(Gradient Descent)优化算法及其在参数更新中的作用。 (3)掌握链式...