当前位置: 首页 > news >正文

青海省住房和城乡建设厅 网站首页永嘉县建设局网站

青海省住房和城乡建设厅 网站首页,永嘉县建设局网站,宜昌市建设局网站,公司网站404从本质上讲#xff0c;人工智能的目标就是最优化——在复杂环境中与多体交互中做出最优决策 几乎所有的人工智能问题都会归结为一个优化问题 在线性搜索中#xff0c;确定寻找最小值时的搜索方向需要使用目标函数的一阶导数和二阶导数置信域的思想是先确定搜索步长#xff0… 从本质上讲人工智能的目标就是最优化——在复杂环境中与多体交互中做出最优决策 几乎所有的人工智能问题都会归结为一个优化问题 在线性搜索中确定寻找最小值时的搜索方向需要使用目标函数的一阶导数和二阶导数置信域的思想是先确定搜索步长再确定搜索方向 4.1 基本概念 目标函数(评价函数)要实现最大化/最小化的函数 目标函数可以看做是连续的山脉最优化的过程就是判断顶峰的位置并找到到达顶峰路径的过程 最优化理论研究的问题是 判定 给定目标函数的最大值最小值是否存在找到 令目标函数取到最大值最小值的数值。 大多数最优化问题都可以通过使目标函数最小化解决 最大化问题可以通过使 − f ( x ) -f(x) −f(x) 最小化实现 4.1.1 最优化目标 理想情况下最优化算法的目标是 找到全局最小值 全局最小值全局最小值比定义域内所有其他点的函数值都小局部极小值局部极小值只比所有邻近点的函数值都小 当目标函数的输入参数较多、解空间较大时绝大多数的实用算法都不能满足全局搜索对计算复杂度的要求因而只能求出局部极小值。 在AI领域只要目标函数取指足够小就可以把这个值当做全局最小值实用作为对 性能和复杂度的折衷 4.1.2 凸优化 { min ⁡ f ( x ) s . t . g i ( x ) ≤ 0 , i 1 , 2 , ⋯ , k h j ( x ) 0 , j 1 , 2 , ⋯ , l \begin{cases} \min f(x)\\ s.t.\quad g_i(x)\le 0,i1,2,\cdots,k\\ \quad h_j(x)0,j1,2,\cdots,l \end{cases} ⎩ ⎨ ⎧​minf(x)s.t.​gi​(x)≤0,i1,2,⋯,khj​(x)0,j1,2,⋯,l​ 等式约束与不等式的解空间都是凸集 在欧氏空间中凸集是对于集合内的每一对点连接该对点的直线段上的每个点也在该集合内 凸集 ∩ 凸集 凸集 凸集\cap 凸集凸集 凸集∩凸集凸集 故有 { 目标函数是凸集 可行域是凸集 ⇒ 全局最优 局部最优 \begin{cases} 目标函数是凸集\\ 可行域是凸集 \end{cases}\Rightarrow 全局最优局部最优 {目标函数是凸集可行域是凸集​⇒全局最优局部最优 Hessian 阵半正定为凸函数 [ ∂ 2 f ∂ x 1 2 ∂ 2 f ∂ x 1 ∂ x 2 ⋯ ∂ 2 f ∂ x 1 ∂ x n ∂ 2 f ∂ x 1 ∂ x 2 ∂ 2 f ∂ x 2 2 ⋯ ∂ 2 f ∂ x 2 ∂ x n ⋮ ⋮ ⋱ ⋮ ∂ 2 f ∂ x n ∂ x 1 ∂ 2 f ∂ x n ∂ x 2 ⋯ ∂ 2 f ∂ x n 2 ] \left[\begin{matrix} \frac{\partial^2f}{\partial x_1^2} \frac{\partial^2f}{\partial x_1\partial x_2}\cdots\frac{\partial^2f}{\partial x_1\partial x_n}\\ \frac{\partial^2f}{\partial x_1\partial x_2} \frac{\partial^2f}{\partial x_2^2}\cdots\frac{\partial^2f}{\partial x_2\partial x_n}\\ \vdots\vdots\ddots\vdots\\ \frac{\partial^2f}{\partial x_n\partial x_1} \frac{\partial^2f}{\partial x_n\partial x_2}\cdots\frac{\partial^2f}{\partial x_n^2}\\ \end{matrix} \right] ​∂x12​∂2f​∂x1​∂x2​∂2f​⋮∂xn​∂x1​∂2f​​∂x1​∂x2​∂2f​∂x22​∂2f​⋮∂xn​∂x2​∂2f​​⋯⋯⋱⋯​∂x1​∂xn​∂2f​∂x2​∂xn​∂2f​⋮∂xn2​∂2f​​ ​ 4.1.3 分类 根据约束条件的不同最优化问题可以分为无约束优化(unconstrained optimization)和约束优化(constrained optimization) 两类。 无条件优化对自变量 x x x 的取值没有限制条件优化对自变量 x x x 的取值限制在特定的集合内即需要满足一定的约束条件 4.2 无约束优化问题 目标 min ⁡ x ∈ R n f ( x ) \min\limits_{x\in R^n}f(x) x∈Rnmin​f(x) 4.2.1 线性搜索方法 先确定方向再确定步长 梯度下降法 沿目标函数值下降最快的方向寻找最小值方向为梯度的反方向 单个样本梯度下降法 梯度 当输入为数值目标函数的图像为二维空间上的曲线梯度为导数的反方向 当输入为向量目标函数的图像就变成了高维空间上的曲面梯度为垂直于目标函数等值线并指向函数值增加方向的方向向量 梯度变大最快的方向 { 一点沿某一方向上的方向导为 Γ 的切线—— Γ 过方向向量与 x o y 垂直的垂面与 f ( x , y , z ) 的交线 某一点沿不同方向有不同的方向导方向导最大方向为梯度 ▽ f 梯度与等值面垂直 \begin{cases} 一点沿某一方向上的方向导为 \Gamma 的切线——\Gamma过方向向量与xoy垂直的垂面与f(x,y,z)的交线\\ 某一点沿不同方向有不同的方向导方向导最大方向为梯度 \bigtriangledown f\\ 梯度与等值面垂直 \end{cases} ⎩ ⎨ ⎧​一点沿某一方向上的方向导为Γ的切线——Γ过方向向量与xoy垂直的垂面与f(x,y,z)的交线某一点沿不同方向有不同的方向导方向导最大方向为梯度▽f梯度与等值面垂直​ f ( x ) f(x) f(x) 沿梯度正方向增大沿梯度负方向减小 梯度下降 要让目标函数以最快下降就是要让自变量在梯度负方向上移动——多元函数沿其负梯度方向下降最快 步长 每次更新 f ( x ) f(x) f(x) 时 x x x 的变化值 较小的步长会导致收敛过程较慢当 f ( x ) f(x) f(x) 接近最小值点时步长太大会导致迈过最小值点 在梯度下降法中步长选择的整体规律是逐渐变小 ω ← ω − η ▽ x f ( x ) \omega\leftarrow \omega-\eta\bigtriangledown_x f(x) ω←ω−η▽x​f(x) 多样本梯度下降法 批处理模式 计算每个样本上目标函数的梯度再将不同样本的梯度进行求和求和的结果作为本次更新中目标函数的梯度。 在批处理模式中每次更新都要遍历训练集中所有样本因而运算量比较大 随机梯度下降法 每次更新中只使用一个样本下一次更新再使用另一个样本在不断迭代中实现对所有样本的遍历 梯度下降法分析 梯度下降法只用到了目标函数的一阶导数 一阶导数描述的是目标函数如何随输入的变化而变化 二阶导数提供了关于目标函数的曲率信息 曲率影响的是目标函数的下降速度 曲率为正目标函数会比梯度下降法预期下降的更慢 曲率为负目标函数则会比梯度下降法预期下降的更快 只能利用目标函数的局部性质因而难免盲目的搜索导致收敛过慢 通过一阶导数可以获知目标函数可能在多个方向上都有增加的导数意味着下降的梯度有很多种选择。但不同选择的效果有好有坏 但无法获取导数的变化信息即无法得知导数长期为负的方向 牛顿法 将二阶导数引入优化过程得到的典型方法就是牛顿法 将目标函数泰勒展开成二阶近似形式再对近似形式求导并令其为0得到的向量为下降最快的方向 相较梯度下降法牛顿法下降速度快 4.2.2 非线性搜索——置信域方法 先确定步长以步长为参数划定一个区域再在这个区域内寻找最快大的下降方法 算法过程 设置 置信域半径 s s s 并在以当前点为中心、 s s s 为半径的封闭圆球形区域作为 置信域 在置信域内寻找目标函数的二次近似模型的最优点最优点与当前点的距离就是 备选位移 在备选位移上 如果目标函数的二次近似产生了充分下降就将当前点移动到计算出的最优点并以此规则迭代适当增加 s s s 如果目标函数的近似下降不明显则说明步长太大需要缩小 s s s 并重新计算备选位移 直到满足备选位移 4.2.3 非地毯式搜索——启发式算法 核心思想优生劣汰的生存法则并在算法中增加了选择和突变等经验因素 智能程度高的表现在于善用启发式策略不用经过大量搜索也能解决问题 生物进化——遗传算法 统计物理中固体结晶过程——模拟退火算法 低等动物产生集群智能——蚁群算法 大脑中神经元竞争和协作的机制——人工神经网络 4.3 约束优化问题 4.3.1 约束优化与Langrange函数 对于凸优化问题 { min ⁡ x f ( x ) s . t . h j ( x ) 0 , j 1 , 2 , ⋯ , l g i ( x ) ≤ 0 , i 1 , 2 , ⋯ , m \begin{cases} \min\limits_{x}f(x)\\ s.t. h_j(x)0,j1,2,\cdots,l\\ g_i(x)\le 0,i1,2,\cdots,m \end{cases} ⎩ ⎨ ⎧​xmin​f(x)s.t.​hj​(x)0gi​(x)≤0​,j1,2,⋯,l,i1,2,⋯,m​ 由 Lagrange 函数 L ( x , α , β ) f ( x ) ∑ i 1 m α i g i ( x ) ∑ j 1 l β j h j ( x ) , α i ≥ 0 , β j ≥ 0 L(x,\alpha,\beta)f(x)\sum\limits_{i1}^m\alpha_i g_i(x)\sum\limits_{j1}^l\beta_j h_j(x)\quad ,\alpha_i\ge 0,\beta_j\ge 0 L(x,α,β)f(x)i1∑m​αi​gi​(x)j1∑l​βj​hj​(x),αi​≥0,βj​≥0 求证在满足 ▽ x L 0 \bigtriangledown_x L0 ▽x​L0 的条件下 max ⁡ L f ( x ) \max Lf(x) maxLf(x) 对 L L L 求梯度过程为求 L L L 最大值的过程 在可行解域内 h j ( x ) ≡ 0 ⇒ β j h j ( x ) ≡ 0 g i ( x ) ≤ 0 且 α i ≥ 0 故 α i g i ≤ 0 h_j(x)\equiv 0\Rightarrow \beta_jh_j(x)\equiv 0\\ g_i(x)\le 0且 \alpha_i\ge 0故 \alpha_ig_i\le 0 hj​(x)≡0⇒βj​hj​(x)≡0gi​(x)≤0且αi​≥0故αi​gi​≤0 max ⁡ α , β L ( x , α , β ) max ⁡ α , β [ f ( x ) ∑ i 1 m α i g i ( x ) ∑ j 1 l β j h j ( x ) ] f ( x ) max ⁡ α , β [ ∑ i 1 m α i g i ( x ) ∑ j 1 l β j h j ( x ) ] f ( x ) \begin{aligned} \max\limits_{\alpha,\beta}L(x,\alpha,\beta)\max\limits_{\alpha,\beta}\left[f(x)\sum\limits_{i1}^m\alpha_ig_i(x)\sum\limits_{j1}^l\beta_jh_j(x)\right]\\ f(x)\max\limits_{\alpha,\beta}\left[\sum\limits_{i1}^m\alpha_ig_i(x)\sum\limits_{j1}^l\beta_jh_j(x)\right]\\ f(x) \end{aligned} α,βmax​L(x,α,β)​α,βmax​[f(x)i1∑m​αi​gi​(x)j1∑l​βj​hj​(x)]f(x)α,βmax​[i1∑m​αi​gi​(x)j1∑l​βj​hj​(x)]f(x)​ 在可行解域外 若 h j ( x ) ≠ 0 ⇒ max ⁡ β j h j ( x ) → ∞ 若 g i ( x ) 0 ⇒ max ⁡ α i g i ( x ) → ∞ } ⇒ 可行解域外 L ( α , β , x ) → ∞ \left. \begin{aligned} 若h_j(x)\neq 0\Rightarrow \max \beta_jh_j(x)\rightarrow \infty\\ 若g_i(x)0\Rightarrow \max \alpha_ig_i(x)\rightarrow \infty \end{aligned} \right\}\Rightarrow 可行解域外L(\alpha,\beta,x)\rightarrow \infty 若hj​(x)0⇒maxβj​hj​(x)→∞若gi​(x)0⇒maxαi​gi​(x)→∞​}⇒可行解域外L(α,β,x)→∞ 对偶问题 KaTeX parse error: Expected EOF, got at position 26: …\limits_{x}f(x)̲\iff \min\limit… 相当于求原问题的下界故对于条件优化问题拉格朗日函数与原目标函数有共同的最优点集和共同的最优目标函数值 4.3.2 等式约束优化 { min ⁡ x f ( x ) s . t . h j ( x ) 0 , j 1 , 2 , ⋯ , l \begin{cases} \min\limits_{x} f(x)\\ s.t. h_j(x)0,j1,2,\cdots,l \end{cases} {xmin​f(x)s.t.hj​(x)0​,j1,2,⋯,l​ 设有 σ x \sigma_x σx​ 对于任一 x F x_F xF​ 使 f ( x F σ x ) f ( x F ) f(x_F\sigma_x)f(x_F) f(xF​σx​)f(xF​) ——即 f ( x ) f(x) f(x) 为凸函数 1. 求 f ( x ) f(x) f(x) 梯度 ▽ x k f ( x k ) ∂ f ( x ) ∂ x k ⇒ ▽ x f ( x ) ∑ x k ∈ X ∂ f ( x ) ∂ x k \bigtriangledown_{x_k}f(x_k)\frac{\partial f(x)}{\partial x_k}\Rightarrow\bigtriangledown_{x}f(x)\sum\limits_{x_k\in\mathcal{X}}\frac{\partial f(x)}{\partial x_k} ▽xk​​f(xk​)∂xk​∂f(x)​⇒▽x​f(x)xk​∈X∑​∂xk​∂f(x)​ 2. 求 h ( x ) h(x) h(x) 梯度 ▽ h ( x ) ( ▽ h ( x 1 ) ⋮ ▽ h ( x k ) ) \bigtriangledown h(x)\left( \begin{aligned} \bigtriangledown h(x_1)\\ \vdots\\ \bigtriangledown h(x_k) \end{aligned} \right) ▽h(x) ​▽h(x1​)⋮▽h(xk​)​ ​ 3. h ( x ) h(x) h(x) 与 f ( x ) f(x) f(x) 的梯度关系 eg { min ⁡ x f ( x ) min ⁡ x ( x 1 x 2 ) s . t . h ( x ) x 1 2 x 2 2 − 2 0 \begin{cases} \min\limits_{x}f(x)\min\limits_{x}(x_1x_2)\\ s.t. \quad h(x)x_1^2x_2^2-20 \end{cases} {xmin​f(x)xmin​(x1​x2​)s.t.h(x)x12​x22​−20​ 分别求 f ( x ) f(x) f(x) 与 h ( x ) h(x) h(x) 的梯度 ▽ f ( x ) ( ∂ f ∂ x 1 ∂ f ∂ x 2 ) ( 1 1 ) ▽ h ( x ) ( 2 x 1 2 x 2 ) \bigtriangledown f(x)\left(\begin{aligned} \frac{\partial f}{\partial x_1}\\ \frac{\partial f}{\partial x_2} \end{aligned}\right)\left( \begin{aligned} 1\\1 \end{aligned} \right)\qquad \bigtriangledown h(x)\left( \begin{aligned} 2x_1\\2x_2 \end{aligned} \right) ▽f(x) ​∂x1​∂f​∂x2​∂f​​ ​(11​)▽h(x)(2x1​2x2​​) 从几何上可以看出当 σ x ⊥ − ▽ x f ( x ) \sigma_x\bot -\bigtriangledown_x f(x) σx​⊥−▽x​f(x) 时可找到最小值 从几何角度分析当达到最优情况 x F x_F xF​ 时满足 { h ( x F σ x ) 0 σ x ⋅ ( − ▽ x f ( x F ) ) 0 ⇒ ▽ x f ( x F ) 与 ▽ x h ( x F ) 平行有 − ▽ x f ( x F ) β ▽ x h ( x F ) , β ≥ 0 \begin{cases} h(x_F\sigma_x)0\\ \sigma_x\cdot (-\bigtriangledown_xf(x_F))0 \end{cases}\Rightarrow \bigtriangledown_xf(x_F)与 \bigtriangledown_xh(x_F)平行有\\ -\bigtriangledown_xf(x_F)\beta\bigtriangledown_xh(x_F),\beta\ge 0 {h(xF​σx​)0σx​⋅(−▽x​f(xF​))0​⇒▽x​f(xF​)与▽x​h(xF​)平行有−▽x​f(xF​)β▽x​h(xF​),β≥0 即优化问题等价于 { min ⁡ x f ( x ) s . t . h ( x ) 0 ⇒ L ( x , β ) f ( x ) β h ( x ) , β ≥ 0 求 max ⁡ β L ( x , β ) 令 { ∂ L ∂ x 0 ⇒ ▽ x f ( x ) β ▽ x h ( x ) 0 ⇒ − ▽ x f ( x ) β ▽ x h ( x ) ∂ L ∂ β 0 ⇒ h ( x ) 0 \begin{aligned} \begin{cases} \min\limits_{x}f(x)\\ s.t. \quad h(x)0 \end{cases}\\ \Rightarrow L(x,\beta)f(x)\beta h(x),\beta \ge 0求 \max\limits_{\beta}L(x,\beta)\\ 令\begin{cases} \frac{\partial L}{\partial x}0\Rightarrow \bigtriangledown_x f(x)\beta\bigtriangledown_xh(x)0\\ \Rightarrow -\bigtriangledown_x f(x)\beta\bigtriangledown_xh(x)\\ \frac{\partial L}{\partial \beta}0\Rightarrow h(x)0 \end{cases} \end{aligned} 令​{xmin​f(x)s.t.h(x)0​⇒L(x,β)f(x)βh(x),β≥0求βmax​L(x,β)⎩ ⎨ ⎧​∂x∂L​0∂β∂L​0​⇒▽x​f(x)β▽x​h(x)0⇒−▽x​f(x)β▽x​h(x)⇒h(x)0​​ eg 对于 { min ⁡ x f ( x ) min ⁡ x ( x 1 x 2 ) s . t . h ( x ) x 1 2 x 2 2 − 2 0 L ( x 1 , x 2 , β ) x 1 x 2 β ( x 1 2 x 2 2 − 2 ) \begin{aligned} \begin{cases} \min\limits_{x}f(x)\min\limits_{x}(x_1x_2)\\ s.t. \quad h(x)x_1^2x_2^2-20 \end{cases}\\ L(x_1,x_2,\beta)x_1x_2\beta(x_1^2x_2^2-2) \end{aligned} ​{xmin​f(x)xmin​(x1​x2​)s.t.h(x)x12​x22​−20​L(x1​,x2​,β)x1​x2​β(x12​x22​−2)​ 令 { ∂ L ∂ x 1 0 ∂ L ∂ x 2 0 ∂ L ∂ β 0 ⇒ { 1 2 β x 1 0 1 2 β x 2 0 x 1 2 x 2 2 − 2 0 ⇒ 代入后得 β ∗ { x 1 ∗ x 1 β 1 ∗ x 2 ∗ x x β 2 ∗ \begin{cases} \frac{\partial L}{\partial x_1}0\\ \frac{\partial L}{\partial x_2}0\\ \frac{\partial L}{\partial \beta}0\\ \end{cases}\Rightarrow \begin{cases} 12\beta x_10\\ 12\beta x_20\\ x_1^2x_2^2-20 \end{cases}\xRightarrow{代入后得\beta^*}\begin{cases} x_1^*x_1\beta_1^*\\ x_2^*x_x\beta_2^*\\ \end{cases} ⎩ ⎨ ⎧​∂x1​∂L​0∂x2​∂L​0∂β∂L​0​⇒⎩ ⎨ ⎧​12βx1​012βx2​0x12​x22​−20​代入后得β∗ ​{x1∗​x1​β1∗​x2∗​xx​β2∗​​ 4.3.3 不等式优化 { min ⁡ x f ( x ) s . t . g i ( x ) ≤ 0 , i 1 , 2 , ⋯ , m \begin{cases} \min\limits_{x} f(x)\\ s.t. g_i(x)\le 0,i1,2,\cdots,m \end{cases} {xmin​f(x)s.t.gi​(x)≤0​,i1,2,⋯,m​ 有Lagrange函数 L ( x , α ) f ( x ) ∑ i 1 m α i g i ( x ) , α i ≥ 0 L(x,\alpha)f(x)\sum\limits_{i1}^m\alpha_ig_i(x),\alpha_i\ge 0 L(x,α)f(x)i1∑m​αi​gi​(x),αi​≥0 最优值在约束范围内 等价于全局最优即为无约束优化问题 { min ⁡ x f ( x ) g i ( x ) 0 , i 1 , 2 , ⋯ , m \begin{cases} \min\limits_{x}f(x)\\ g_i(x)0\quad,i1,2,\cdots,m \end{cases} {xmin​f(x)gi​(x)0,i1,2,⋯,m​ eg: { min ⁡ x f ( x ) x 1 2 x 2 2 s . t . g ( x ) x 1 2 x 2 2 − 1 ≤ 0 ⇒ { f ( x ) x 1 2 x 2 2 g ( x ) x 1 2 x 2 2 − 1 0 且 max ⁡ β L ( x , β ) f ( x ) ⇒ g ( x ) 0 α 0 \begin{aligned} \begin{cases} \min\limits_{x}f(x)x_1^2x_2^2\\ s.t.\quad g(x)x_1^2x_2^2-1\le 0 \end{cases}\Rightarrow\begin{cases} f(x)x_1^2x_2^2\\ g(x)x_1^2x_2^2-10 \end{cases}\\ 且 \max\limits_{\beta} L(x,\beta)f(x)\xRightarrow{g(x)0}\alpha0 \end{aligned} ​{xmin​f(x)x12​x22​s.t.g(x)x12​x22​−1≤0​⇒{f(x)x12​x22​g(x)x12​x22​−10​且βmax​L(x,β)f(x)g(x)0 ​α0​ 最优值不在约束范围内 梯度关系 { 平行 : − ▽ x f ( x ) α g ( x ) 同向 α 0 梯度关系\begin{cases} 平行:-\bigtriangledown_xf(x)\alpha g(x)\\ 同向\alpha0 \end{cases} 梯度关系{平行:−▽x​f(x)αg(x)同向α0​ 令 L ( x , α ) f ( x ) α g ( x ) L(x,\alpha)f(x)\alpha g(x) L(x,α)f(x)αg(x) 在可行解域内 g ( x ) ≤ 0 , α 0 ⇒ α g ( x ) ≤ 0 且 max ⁡ α L ( x , α ) f ( x ) max ⁡ α α g ( x ) f ( x ) ⇒ max ⁡ α α g ( x ) 0 g ( x ) 0 \begin{aligned} 在可行解域内g(x)\le 0,\alpha0\Rightarrow \alpha g(x)\le 0\\ 且 \max\limits_{\alpha}L(x,\alpha)f(x)\max\limits_{\alpha} \alpha g(x)f(x)\xRightarrow{\max\limits_{\alpha} \alpha g(x)0}g(x)0 \end{aligned} ​在可行解域内g(x)≤0,α0⇒αg(x)≤0且αmax​L(x,α)f(x)αmax​αg(x)f(x)αmax​αg(x)0 ​g(x)0​ 即最优值不在约束域内则一般在边界上 4.3.3 约束优化总结——KKT条件 min ⁡ x max ⁡ α , β L ( x , α , β ) min ⁡ x max ⁡ α , β [ f ( x ) ∑ i 1 m α i g i ( x ) ∑ j 1 l β j h j ( x ) ] , α i ≥ 0 , β j ≥ 0 K K T { ▽ x L 0 ⇒ − ▽ x f ( x ) ∑ i 1 m α i ▽ x g i ( x ) ∑ j 1 l β j ▽ x h j ( x ) ∂ L ∂ α i 0 , α i ≥ 0 , α i g i ( x ) ≤ 0 { α i 0 , g i ( x ) 0 , 最优解在约束范围内 g i ( x ) 0 , α i 0 , 最优解不在约束范围内一般在边界 ∂ L ∂ β j 0 , β j ≥ 0 \min\limits_{x}\max\limits_{\alpha,\beta}L(x,\alpha,\beta)\min\limits_{x}\max\limits_{\alpha,\beta}\left[f(x)\sum\limits_{i1}^m\alpha_ig_i(x)\sum\limits_{j1}^l\beta_jh_j(x)\right],\alpha_i\ge 0,\beta_j\ge 0\\ KKT\begin{cases} \bigtriangledown_xL 0\Rightarrow -\bigtriangledown_xf(x)\sum\limits_{i1}^m\alpha_i\bigtriangledown_xg_i(x)\sum\limits_{j1}^l\beta_j\bigtriangledown_xh_j(x)\\ \frac{\partial L}{\partial \alpha_i}0\quad ,\alpha_i\ge 0,\quad \alpha_ig_i(x)\le 0\begin{cases} \alpha_i0,g_i(x)0,\quad 最优解在约束范围内\\ g_i(x)0,\alpha_i0 ,\quad 最优解不在约束范围内一般在边界 \end{cases} \\ \frac{\partial L}{\partial \beta_j}0\quad ,\beta_j\ge 0 \end{cases} xmin​α,βmax​L(x,α,β)xmin​α,βmax​[f(x)i1∑m​αi​gi​(x)j1∑l​βj​hj​(x)],αi​≥0,βj​≥0KKT⎩ ⎨ ⎧​▽x​L0⇒−▽x​f(x)i1∑m​αi​▽x​gi​(x)j1∑l​βj​▽x​hj​(x)∂αi​∂L​0,αi​≥0,αi​gi​(x)≤0{αi​0,gi​(x)0,最优解在约束范围内gi​(x)0,αi​0,最优解不在约束范围内一般在边界​∂βj​∂L​0,βj​≥0​
http://www.ihoyoo.com/news/32190.html

相关文章:

  • 劳务派遣做网站的好处简洁的网站地图模板
  • python 做网站 用哪个框架好网站备案查询 api
  • 惠州网站模板建站老网站改版启用二级域名
  • 资源优化排名网站外贸推广seo招聘
  • 固原地网站seo全国黄页大全
  • 2003 iis网站发布网站新电商平台如何推广
  • 做设计素材网站有哪些开源cms框架
  • 网站 建设原则建设一个充电站需要多少钱
  • 南部 网站 建设网站搜索优化
  • 精品课程网站建设 公司咨询北京国互网网站建设
  • 长沙的网站制作公司wordpress积分系统
  • 网站建设与维护协议wordpress 增加分类字段
  • 做特价的网站百度wordpress保护插件
  • 南京外贸网站建设系统wordpress第2页未找到
  • 什么网站做禽苗好的网站做外贸的免费网站有哪些
  • 网站公告栏代码公司网站封面怎么做
  • 上海智能网站建设设计呼和浩特建设工程安全管理网站
  • 网站改版是什么珠海网站空间注册
  • 给个龙做罗拉的网站手机网站好还是h5好
  • 绿色 网站 源码免费查企业app
  • 昭通市住房和城乡建设局网站英山县住房和城乡建设局网站
  • 定制网站 北京保定公司做网站
  • 公园网站建设方案网页制作用哪个软件
  • 株洲网站开发公司电话网站怎样备案
  • 网站备案查询验证码错误做音乐头像网站
  • 从什么网站可以做兼职网站开发收费表
  • 织梦 安装网站要做网站照片怎么处理
  • 网站建设科研申报书做网站服务商
  • 中国化工网官网 网站建设张家港企业网站建设
  • 福州网站建设seo如何推广普通话的建议6条