归档: 2018/3

0

分布参数系统控制(五):模型近似

  分布参数系统是个无限维的系统,在第一章节所提到的early-lumping控制中,我们先将系统过程近似为集总参数系统,再使用现代控制方法对系统进行分析控制。本文将阐述模型近似的过程及相关注意事项。 模型近似  分布参数系统状态方程如下: \begin{eqnarray} \dot{x}(t)&=&\mathcal{A}x(t)+\mathcal{B}u

0

分布参数系统控制(四):解的存在唯一性

  在求解微分方程的初值问题时,我们通常要考虑解的存在唯一性,以及解受初始条件的影响。一般来说,我们希望问题的解存在且唯一,并且连续地取决于初始条件(通常无法准确得知状态变量初始值,导致实际应用中会产生一定的偏差。因此我们希望当初始值$x(0)$微小变化时,$x(t)$的变化足够小)。我们称这样的问题为适定性问题(wohlgestelltes Problem)。 &e

0

支持向量机(四)

  到目前为止,我们把SVM优化问题化为了更容易解决的对偶问题,并且使用核函数及正则化来改善它的特性。现在我们只需解决这个对偶问题就可以得到最优间隔分类器,可以说是“万事具备,只欠东风”了。我们先将第三章节得到的对偶问题搬运过来: \begin{eqnarray} \max_{\alpha}\ &&\theta_{\cal{D}}(\alpha)=\sum_{i=1}^m\a

0

支持向量机(三)

  支持向量机的强大不止在于它能在特征空间找到合适的超平面将正负样本分开并保持最大间隔,通过引入核函数,它还能在更高维,甚至无限维空间中对样本进行分离,以此来解决非线性的问题。 核特征映射  在之前的推导中,我们使用的一直是样本的原始特征$x$,并通过线性平面$w^Tx+b$进行分割。但如果样本是线性不可分的,我们就需要先将特征映射到更高维空间,再分离正负样

0

支持向量机(二)

  上一章节我们将SVM的目标转换为了一个带不等式约束条件的优化问题,现在我们的目标就是解决这个优化问题。在此我们先将SVM及最优间隔分类器放一放,来看看一般约束优化问题的求解方法。 约束优化问题等式约束优化问题  等式优化问题一般描述如下: \begin{split} \min_x\ &f(x)\\ {\rm s.t.}\ &h_i(x)=0,\ i=1

0

支持向量机(一)

  支持向量机(Support Vector Machine)是一种强大的监督式学习算法。尽管目前深度学习非常流行,但这种经典的机器学习算法仍然有着非常大的研究价值,并且它在机器学习领域仍占有着一席之地。本次学习材料主要是CS229课程以及一些网上的资料。 SVM目标  为了引入SVM思想,我们来看一个二分类问题。假设我们有一组训练样本$\{(x_1,y_1

0

利用爬虫搜集数据

  训练数据对于机器学习来说是必不可少的,因此在每个机器学习任务之前都会有一个搜集数据的过程,这个搜集过程通常来说是枯燥且费时的。不像很多公司本身就是数据的生产者,对于我们普通学习者来说,能使用的大部分数据均来自于网络。我们可以从网页上手动获取所需的数据,复制粘贴到本地,然而这是相当麻烦的。通过python我们可以模拟浏览器对网页进行抓取,并自动筛选出所需要的数据,大大提高搜集

0

分布参数系统控制(三):求解模型

  在建立系统方程后,便可以求解系统的状态变量随时间的函数了,当然此时系统需要满足一定条件。本文将以上一章得到的系统状态方程为基础,对一般系统求解进行推导。系统状态方程如下: \begin{eqnarray} \dot{x}(t)&=&\mathcal{A}x(t)+\mathcal{B}u(t),\ &t>0,\ x(0)=x_0\in X\tag{1}\\ y(t)&=&

0

迁移学习

  作为一个苦逼的学生党,如果没有实验室或者公司支持,自己实践深度学习时经常会遇到一些困难:“自己网上搜集数据好麻烦,现成的数据集很多又都是要申请才能获得”;“破笔记本也太烂了,训练个两层CNN就要跑好几天,要达到满意的效果不知道要跑到猴年马月了”。在没有能力或者单纯不想从零开始训练模型时,迁移学习无疑是一大神器。我们可以从网上下载别人已经训练好的模型,将它们迁移到我们自己的任

0

分布参数系统控制(二):建立模型

  我们在分析一个实际系统前往往需要将它转化为抽象的模型,再通过数学上的方法进行分析。而这其中往往涉及到一些物理化学方面的知识,因此本次学习不是分布参数系统的重点。本次学习将以导热棒为例,使我们对分布参数系统建模有一个初步的印象。 概述  不管是什么系统,对其进行建模的方法都类似:通过系统中各个物理量的相互作用来建立相应的平衡方程,再对这些方程施加一些外部条