群论 循环群 设 \(G\) 为群,\(S\) 是 \(G\) 的子集,\(G\) 中包含 \(S\) 的最小子群 \(A\) 的叫做由 \(S\) 生成的子群,表示为 \(A = <S>\) 如果群 \(G\) 自身由子集 \(S\) 生成,即 \(G = <S>\),则称 \(S\) 是 \(G\) 的一个生成元系,如果 \(G = <S>\)并且 \ 2022-11-01 math 近世代数 近世代数
Chap19 斐波那契堆 思考题 Problem 2 Sub Problem a 二项树的第k项由一个根节点和k个子树构成,其子树节点依次为\(B_0,...,B_{k - 1}\),所以有 其节点个数为\(1 + \sum_{i = 0}^{k - 1}|B_i|\),由数学归纳法可证为\(2^k\)个节点 同理,二项树的高度为最大子树高+1,那么由归纳法同理可证为k(\(B_0\)的节点数为1,高为0) 2022-10-23 algorithms 算法导论题解 algorithms
聚类算法 聚类的基本概念 相似度和距离 闵可夫斯基距离 在聚类中,可将样本集合看作是向量空间中点的集合,以该空间的距离表示样本之间的相似度。常用距离有闵可夫斯基距离,特别是欧氏距离。闵可夫斯基距离越大,相似度越小 定义:给定样本集合矩阵 \(X\),\(X\) 是 \(m\) 维实数向量空间中点的集合,其中 \(x_i,x_j \in X\),\(x_i = (x_{1i},x_{2i},.. 2022-10-17 machine learning notes machine learning
Boosting算法 AdaBoost算法 Boosting基本思路 Boosting基于这样一种思想:对于一个复杂任务来说,将多个专家的判断进行适当的综合得出的判断比其中任何一个专家单独的判断都好 强可学习和弱可学习:对于一个概念,如果存在一个多项式的学习算法能够学习它,并且成功率很高,那么就称这个概念是强可学习的;而如果学习的正确率仅比随即猜测略好,那么就称这个概念是弱可学习的;后来证明得强可学习和弱可学习的 2022-10-09 machine learning notes machine learning
Chap5 指数与原根 整数的次数 定义:设\(m > 0\),\((a,m) = 1\),\(l\) 是使 \[ a^l \equiv 1 \;(mod \,m) \] 成立的最小正整数,则 \(l\) 叫做 \(a\) 对模数 \(m\) 的次数 定理:设 \(a\) 对模数 \(m\) 的次数为 \(l\), \(a^n \equiv 1 \;(mod\, m)\),\(n > 0\) 2022-09-27 math 数论 数论
主成分分析 总体主成分分析 统计分析中,数据的变量之间可能存在相关性,以致增加了分析的难度。于是考虑由少数不相关的变量代替相关变量,用来表示数据,并且要求能够保留数据中的大部分信息。 主成分分析中: 首先对给定数据进行归一化,使得数据每一变量变为均值为0,方差为1. 之后对数据进行正交变换,原来由线性相关变量表示的数据通过正交变换变成由若干个线性无关的新变量表示的数据。新变量是可能的正交变换中变量 2022-09-13 machine learning notes machine learning
奇异值分解 奇异值分解的定义与性质 定义和定理 定义(奇异值分解):矩阵的奇异值分解是指将一个非0的\(m\times n\)实矩阵\(\mathbf{A}\),\(\mathbf{A} \in \mathbf{R}^{m\times n}\),表示为以下三个实矩阵乘积形式的运算,即进行矩阵的因子分解: \[ \mathbf{A} = \mathbf{U\varSigma V^T} \] 其中,\ 2022-09-12 machine learning notes machine learning
决策树 决策树模型和学习 定义:分类决策树模型是一种描述对实例进行分类的树形结构。决策树由节点和有向边组成。结点有两种类型:内部结点和叶结点。内部结点表示一个特征或属性,叶结点表示一个类 决策树的if-then规则 可以将决策树看成一个if-then规则的集合。将决策树转换成if-then规则的规则如下:由决策树的根结点到叶结点的每一条路径构建一条规则;路径上内部结点的特征对应规则的条件,而叶结点的 2022-09-07 machine learning notes machine learning
线性模型 基本形式 给定一个由 \(d\) 个属性描述的示例 \(x = (x_1,x_2,...,x_d)\),线性模型通过学习一个属性的线性组合来建立一个预测样本的函数,即: \[ f(x) = (\sum_{i = 1}^n w_ix_i) + b \] 将其写为向量形式为: \[ f(x) = w^Tx + b \] 或者我们可以将 \(x\) 扩展一维,其属性值为\(x_{n + 2022-09-07 machine learning notes machine learning
Chap3 解析函数的积分表示 复变函数的积分 我们约定以下提到的曲线(包括简单曲线)都是光滑或逐段光滑的 定义:设\(C\)是平面上一条有向曲线,其起点是\(z_0\),终点是\(Z\),\(f(z)\)是定义在\(C\)上的单值函数,任意用一列分点 \[ z_k = x_k + iy_k \] 把曲线分为\(n\)个小段,在每个小段上任取点\(\zeta_k\)作和 \[ \sum_{k = 1}^{n} f(\z 2022-08-09 math 复变函数 复变函数