Download as txt, pdf, or txt
Download as txt, pdf, or txt
You are on page 1of 2

# 分类任务与回归任务

分类任务关注结果的分类及分类的比例,比如:对与错(对与错分别的比例),属于 A 或 B(属于 A 或 B 的比例)

回归任务关注结果的准确性(数字准确性),比如:任务得出的结果的数值为 A,与真实数值 B 之间的差距

# 均方差公式

![image-20240506154728000](./AI%E9%80%9A%E7%94%A8%E7%9F%A5%E8%AF%86.assets/image-
20240506154728000.png)

其中 n 为输入值的个数

# 导数

导数为微积分概念,描述了函数在某个点附近的变化率,其本质是通过极限的概念对函数进行局部的线性逼近。
导数在几何上表现为切线的斜率,是变化率;

导数在数学上更本质的意义,在于它是对于连续性的一种测度,光滑、连续的导数曲线,可以成为**判断未来走
势**的依据。

# 偏导数

偏导数是指函数在某一点对某一自变量的变化率,而保持其他自变量不变

偏导数的表示:偏导数的表示符号为∂,如 f'x(x0,y0)表示函数在点(x0,y0)对 x 的偏导数。

偏导数的计算:偏导数的计算并不需要新的方法,只需将其他自变量看作常数,使用一元函数的微分法即可。例
如,对于二元函数 z=f(x,y),要求 z 对 x 的偏导数,只需把 y 看作常数,对 x 求导即可。

偏导数的几何意义:偏导数 f'x(x0,y0)和 f'y(x0,y0)分别表示固定面上一点对 x 轴和 y 轴的切线斜率。

高阶偏导数:如果函数的偏导数仍然可导,那么可以继续对这些偏导数求偏导,得到高阶偏导数。例如,二元函
数的二阶偏导数有四个:f"xx,f"xy,f"yx,f"yy。

方向导数:方向导数表示函数在某点沿着某一特定方向上的变化率。偏导数实际上是方向导数的一种特殊情况,
即沿着坐标轴方向的变化率。

总的来说,偏导数是研究多元函数在某一点对某一自变量的局部变化率的重要工具,在向量分析和微分几何等领
域有广泛应用。

# sigmod 函数

叫做 Logistic 函数,取值范围(0,1)

![image-20240506155650523](./AI%E9%80%9A%E7%94%A8%E7%9F%A5%E8%AF%86.assets/image-
20240506155650523.png)

sigmod:

![image-20240506160805310](./AI%E9%80%9A%E7%94%A8%E7%9F%A5%E8%AF%86.assets/image-
20240506160805310.png)
求导:

![image-20240506160924103](./AI%E9%80%9A%E7%94%A8%E7%9F%A5%E8%AF%86.assets/image-
20240506160924103.png)

# 激活函数

参考链接:https://blog.csdn.net/u010626937/article/details/103633220

> 激活函数是神经网络中极为重要的一个概念,它决定了某个神经元是否被激活,这个神经元接受到的信息是否
有用,是该留下还是该抛弃掉。在神经网络中我们需要一个机制来区分有用信息和无用信息,类似于大脑中的神
经元,有的神经对于某些信号是敏感的而有些神经元对这些信号是抑制的,在神经网络中能起到这个作用的就是
激活函数。
>

激活函数的形式为:![image-20240506161403790](./AI%E9%80%9A%E7%94%A8%E7%9F%A5%E8%AF
%86.assets/image-20240506161403790.png)

其中 f ff 即为激活函数。θ 为我们之前提到的神经元的激活阈值。

![img](./AI%E9%80%9A%E7%94%A8%E7%9F%A5%E8%AF%86.assets/
watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3UwM
TA2MjY5Mzc=,size_16,color_FFFFFF,t_70.jpeg)

> 激活函数可以看作是变量间的一个非线性变换,通过引入激活函数来增加神经网络模型的非线性,以便增加对
样本非线性关系的拟合能力(在现实生活中,大部分的数据都是线性不可分的)。只有加入了激活函数之后,深
度神经网络才具备了分层的非线性映射学习能力。

# 神经网络的前向计算和反向传播

参考地址:https://blog.csdn.net/zzh031441229/article/details/115572846

- 前向计算(使用激活函数)的结果用于求求损失(根据损失函数(均方差公式)),反向传播用来计算误差

- 每个神经元根据误差修正权重

## 前向计算示例

![img](./AI%E9%80%9A%E7%94%A8%E7%9F%A5%E8%AF%86.assets/
watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3p6a
DAzMTQ0MTIyOQ==,size_16,color_FFFFFF,t_70.png)

![img](./AI%E9%80%9A%E7%94%A8%E7%9F%A5%E8%AF%86.assets/
watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3p6a
DAzMTQ0MTIyOQ==,size_16,color_FFFFFF,t_70-1714983934187-6.png)

![img](./AI%E9%80%9A%E7%94%A8%E7%9F%A5%E8%AF%86.assets/
watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3p6a
DAzMTQ0MTIyOQ==,size_16,color_FFFFFF,t_70-1714983945995-9.png)

## 反向传播示例

You might also like