该标签下共计 12 篇文章,共计 31012 字
2025年07月24日
程设计科 / 人工智能

数据科学与工程优化(七)

一、人工智能的历史与突破 2017年:深度伪造(Deep Fake)技术流行,合成图像达到较高分辨率,但尚未商业化。 2021年:DALLE面世,首次实现“从文本生成图像”,训练数据为图像描述,规模尚小。 2022年:ChatGPT发布,两个月后月活跃用户过亿,成为史上增长最快的消费级软件。 2024年:SORA发布,能从文本生成高质量视...

2025年07月23日
程设计科 / 人工智能

数据科学与工程优化(Code II)

一、概述 这个Python程序实现了经典的梯度下降算法和随机梯度下降算法,并在两个不同的优化问题上进行了比较实验:Rosenbrock函数和强凸二次函数。 二、功能模块 1、测试函数定义 Rosenbrock函数 函数: rosenbrockw 描述: 经典的非凸优化测试函数,也称为"香蕉函数" 数学表达式: fx,...

2025年07月23日
程设计科 / 人工智能

数据科学与工程优化(Code I)

本项目包含三个 MATLAB 脚本/函数文件,主要用于演示和实现最速下降法(Steepest Descent Method)在不同目标函数上的优化过程。适合用于数值优化、无约束优化方法的学习与实验。 文件列表 1. Steepestdescentmethod.m 2. Rosenbrockfunction.m 3. Scaledquadra...

2025年07月23日
程设计科 / 人工智能

数据科学与工程优化(六)

一、噪声地板(Noise Floor)问题背景 在实际SGD(随机梯度下降)中,由于每次只用部分样本(甚至单样本)估计梯度,噪声地板(noise floor)不可避免:即SGD只能收敛到一个残差带(目标函数的最优值附近的宽区间),而非真正精确的最优点。这在大规模数据和非精确(有噪声)目标情况下尤其明显。 二、降低噪声地板的三大方法 方法...

2025年07月23日
程设计科 / 人工智能

数据科学与工程优化(五)

一、随机梯度下降法(SGD)背景 许多机器学习与数据科学中的目标函数都具有求和结构: $$ \min{x \in \mathbb{R}^n} fx = \frac{1}{m} \sum{j=1}^{m} fjx $$ 例如,$fjx = \|aj^T x yj\|^2$,$aj, yj$ 是数据点,$m$ 很大。 标准梯度下降法...

2025年07月23日
程设计科 / 人工智能

数据科学与工程优化(四)

一、梯度法复杂度总结 对于 $L$光滑但非凸的 $f$,最速下降法(Steepest Descent)收敛速率为 $$ O\left\frac{1}{\sqrt{k}}\right $$ 对于 $L$光滑且凸的 $f$, $$ O\left\frac{1}{k}\right $$ 若 $f$ 还是 $\ga...

2025年07月22日
程设计科 / 人工智能

数据科学与工程优化(三)

一、最速下降法 最速下降法(Steepest Descent)用于求解无约束优化问题: $$ \min{x \in \mathbb{R}^n} fx $$ 其中 $f: \mathbb{R}^n \to \mathbb{R}$ 是 $L$光滑函数。算法通过迭代更新: $$ x{k+1} = xk + \alphak dk $$...

2025年07月22日
程设计科 / 人工智能

数据科学与工程优化(二)

一、基本术语和模型 考虑以下优化模型: $$ \min{x \in \mathbb{R}^n} fx \quad \text{s.t.} \quad x \in F $$ 1、最小化点的定义 局部极小点(local minimiser):$x^ \in F$,若存在 $\varepsilon 0$,使得对所有 $x \in ...

2025年07月22日
程设计科 / 人工智能

数据科学与工程优化(一)

一、课程概述 本课程主要讨论数据科学中的优化问题,包含以下内容: 优化模型的基本形式与实际例子 一阶迭代方法 数据分析中的典型问题与优化方法 二、为什么要用优化? 在数据科学与机器学习中,很多问题都可以归结为优化问题。例如: 回归问题 数据补全问题 数据结构检测 降维问题 数据分类问题 这些问题通...

2025年06月19日
程设计科 / 人工智能

常见激活函数表达式及其特性

1、Sigmoid 函数 表达式: $$ \sigmax = \frac{1}{1 + e^{x}} $$ 导数: $$ \sigma'x = \sigmax1 \sigmax $$ 特性: 输出区间:$0, 1$ 非线性,可微 在$x \to +\infty$时趋近于1,$x \to \infty$时...