• / 179
  • 下载费用:2 金币  

知识图谱————2.机器学习基础.pdf

关 键 词:
知识 图谱 机器 学习 基础
资源描述:
机器学习基础 刘康 中国科学院自动化研究所研讨课安排 • 研讨课 • 第4章 知识图谱框架 (3学时)刘康(10月10日) • 第8章 研讨课:事件抽取(3学时)赵军(11月7日) • 第11章 研讨课:知识图谱构建(3学时)赵军(11月28日) • 形式 • 分组汇报(每组:6-8人,15分钟汇报一篇相关的文章) • 候选Topic: • 知识融合(1-6组,内容可以参考OAEI评测相关文章) • 事件抽取(7-12组,内容可以包括事件抽取;事件关系预测;事件框架生成;事件预测) • 知识图谱构建(13-18组,内容可以包括实体识别;实体消歧;关系抽取)研讨课安排 • 分组办法 • 有道云协作:http://163.fm/4dMfuC4t • 请组长进群后填写本组相关信息 • 信息填写截止时间:2017年9月20日晚8:00(周三) • 文章下载地址:http://www.aclweb.org/anthology/ 只要To p i c属于上述候选To p i c即可,也可 以从其他期刊或者会议下载 • 编号规则:请大家按编辑先后顺序编写自己的小组序号,先到先得,例如:第一个编辑的小组可以 选择1-18中的任意编号,第二个小组可以选择除了第一个小组以外的其它编号,如果后填写的小 组看到自己的小组号码或者文章题目和已经填写好的小组冲突,请后面的小组更换为不冲突的编号 和文章。 • 切记:这个协作笔记有操作记录,请大家只编辑自己小组的信息,不要更改其余小组的信 息!!!!!!参考书籍 • 1. Knowledge Representation and Reasoning (Ronald J.Brachman, Hector J.Levesque) • 2. Artificial Intelligence: A Modern Approach (Stuart Russell, Peter Norvig) • 3. A Semantic Web Primer(Grigoris Antoniou等) • 4. Speech and Language Processing (Daniel Jurafsky,James H.Martin)目录 • 机器学习基础理论与概念 • 神经网络与深度学习基础 • 卷积神经网络 • 循环神经网络机器学习 • 机器学习(Machine Learning, ML)是一门多领域交叉学科,涉及概率 论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研 究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能, 重新组织已有的知识结构使之不断改善自身的性能 • 机器学习是人工智能的一个分支,其目的在于使得机器可以根据数据进 行自动学习,通过算法使得机器能从大量历史数据中学习规律从而对新 的样本做决策 • 它目前是人工智能的核心,是使计算机具有智能的根本途径,其应用 遍及人工智能的各个领域,它主要使用归纳、综合而不是演绎机器学习 输出 y 模型 学习算法 输入 x 训练样本 (x,y) 机器学习主要是研究如何使计算机从给定的数据中学习规律,即从观测数据 (样本)中寻找规律,并利用学习到的规律(模型)对未知或无法观测的数据 进行预测。目前,主流的机器学习算法是基于统计的方法,也叫统计机器学习机器学习概要 训练数据:(x i , y i ),1 ≤ i ≤ m 模型: 线性方法:y = f (x) = w T x + b 非线性方法:神经网络 优化: 损失函数: L(y, f (x)) 经验风险最小化: 正则化: 优化目标函数: 1 () ( ( ) ) 1 ,, m ii i QL y f x m θθ = =⋅ ∑ 2 || | ( | ) Qθλθ + 2 || || θ 奥卡姆剃刀原则机器学习 狭义地讲,机器学习是给定一些训练样本 (x i , y i ),1 ≤ i ≤ N(其中 x i 是 输入,y i 是需要预 测的目标),让计算机自动寻找一个决策函数 f (· )来建立 x 和 y 之间的关系。 这里,! “是模型输出,#为决策函数的参数,$%, a tt t ii N t t i R Rxy θ λ θ θ λ θ + = ∂ − ∂ ∂ =− ∂ ∑梯度下降法学习率学习率设置:自适应法 AdaGrad(Adaptive Gradient)算法是借鉴 L 2 正则化的思想。在第 t次迭代时, 其中,ρ 是初始的学习率,g τ ∈ R |θ| 是第 τ次迭代时的梯度。随着迭代次数的增加,梯度逐渐缩小 1 2 1 tt t t g g τ τ ρ θθ − = =− ∑开发集 在梯度下降训练的过程中,由于过拟合的原因,在训练样本上收敛的参数,并不一定在测 试集上最优。因此,我们使用一个验证集(V alidationDataset)(也叫开发集(Development Dataset))来测试每一次迭代的参数在验证集上是否最优。如果在验证集上的错误率不再下 降,就停止迭代。如果没有验证集,可以在训练集上进行交叉验证 训练集 开发集 测试集机器学习问题类型 回归(Regression) y 是连续值(实数或连续整数),f (x)的输出也是连续值。 这种类型的问题就是回归问题。对于所有已知或未知的 (x, y),使得 f (x,θ ) 和 y 尽可能地一致。损函数通常定义为平方误差。 分类(Classification) y是离散的类别标记(符号),就是分类问题。损失 函数有一般用0 -1 损失函数或负对数似然函数等。在分类问题中,通过学习 得到的决策函数f (x,θ ) 也叫分类器。机器学习算法类型 有监督学习(Supervised Learning)是利用一组已知输入 x和输出 y 的数据来学习模型的参数, 使得模型预测的输出标记和真实标记尽可能的一致 无监督学习(Unsupervised Learning) 用来学习的数据不包含标注信息,需要学习算法自动学 习到一些有价值的信息,例如聚类(Clustering) 半监督学习(Semi-SupervisedLearning)是利用少量已知输入 x和输出 y 的数据以及未标注 的样本,来学习模型的参数分类、回归和聚类 Clustering• 主动学习(Active Learning) • 集成学习(Ensemble Learning) • 迁移学习(Tr an s f e r Learning) • 多任务学习(Multi-task Learning) • 强化学习(Reinforcement Learning) • 终生学习(Life-long Learning) • 课程学习(Curriculum Learning) • 零样本学习 (One/zero shot Learning) • …… 机器学习分类• 主成分分析 • 流形学习 • 核方法 • 主题模型 • 度量学习 • Embedding • …. 特征表示:特征选择、特征抽取线性分类 线性分类是机器学习中最常见并且应用最广泛的一种分类器。 ( ) 10 00 T T T if w x yl w x if w x ∧ ⎧ ⎪== ⎨ ≤ ⎪⎩Logistic Regression Logistic回归 我们定义目标类别 y = 1的后验概率为: 其中,σ(· ) 为 logistic函数,x 和 w 为增广的输入向量和权重向量。 y = 0的后验概率为 * !+ ,;=Softmax 回归 SoftMax回归是 Logistic回归的多类推广。 我们定义目标类别 y = c的后验概率为: ( ) ( ) ( ) ( ) 1 exp |m a x exp T c T c C T i i wx P y c x soft w x wx = == = ∑评价方法 常见的评价标准有正确率、准确率、召回率和 F值等。 给定测试集 T = (x 1 ,y 1 ),··· ,(x N ,y N ),对于所有的 yi ∈ {ω 1 ,··· ,ω C }。 假设分类结果为 Y =! ?,··· ,! @ ?。 则正确率(Accuracy,Correct Rate)为: 其中,| · |为指示函数 和正确率相对应的就是错误率(Error Rate)。 正确率是平均的整体性能。 1 N ii i yy Acc N ∧ = = = ∑ 1 N ii i yy Err N ∧ = ≠ = ∑评价方法 在很多情况下,我们需要对每个类都进行性能估计,这就需要计算准确率和召回率。正确率和 召回率是广泛用于信息检索和统计学分类领域的两个度量值,在机器学习的评价中也被大量使 用。 准确率(Precision,P),是识别出的个体总数中正确识别的个体总数的比例。对于类 c来说, 召回率(Recall,R),也叫查全率,是测试集中存在的个体总数中正确识别的个体总数的比例。 1 1 1 i i N ii i yc c N i yc yy P ∧ ∧ ∧ = = = = = = ∑ ∑ 1 1 1 i i N ii i yc c N i yc yy R ∧ = = = = = = ∑ ∑自然语言处理 • 让机器理解自然语言自然语言难点 • 分词 • 中国人为了实现自己的梦想 • 中国/ 人为/ 了/ 实现/ 自己/ 的/ 梦想 • 中国人/ 为了/ 实现/ 自己/ 的/ 梦想 • 中/ 国人/ 为了/ 实现/ 自己/ 的/ 梦想 • 其他例子 • “大学生”、“研究生物”、“从小学起”、“为人民工 作”、“中国产品质量”、“部分居民生活水平”、“南京 市长江大桥”等等 • 指代消解 • 我们把香蕉给猴子,因为它们饿了 • 我们把香蕉给猴子,因为它们熟透了自然语言难点 更困难的例子 冬天,能穿多少穿多少;夏天,能穿多少穿多少。 剩女的原因:一是谁都看不上,二是谁都看不上。 单身的来由:原来是喜欢一个人,现在是喜欢一个人。 女致电男友:地铁站见。如果你到了我还没到,你就等着吧。如果 我到了你还没到,你就等着吧!! 大舅去二舅家找三舅说四舅被五舅骗去六舅家偷七舅放在八舅柜子 里九舅借十舅发给十一舅工资的1000元 问: 1、究竟谁是小偷? 2、钱本来是谁的?情感分类:分类问题 这个电影很好看。 这个电影太糟糕了。 分类模型 模型表示 特征抽取 参数学习 解码算法情感分类 诺基亚5800 屏幕很好,操作也很方便,通 话质量也不错, 诺基亚 1 5800 1 屏幕 1 很好 1 操作 1 也 2 很 1 方便 1 通话 1 质量 1 不错 1 分类器 (1,0,0,1,0,1,1…,0,1)中文分词:分类问题 自 A 然 A 语 A 言 A 处 A 理 0 1 0 1 0 窗口大小 样本 三字符串特征 F’ + , G H%! ) 4%.IF’ OF +4 H%! ) 4! ) P’( K L MN OE%.;F’ O. +4 H%! ) 4! ) P’ , , , , 5 5 0 5 4, + 5 5 • , 4G U V 5 5 05+5 • [1,0] • ST2(%5; , , , , , 5 0 5 4, + , 5 • , 4G U V , 5 05+, • [0,1] • ST2(%5; , , , , 5 , 0 5 4, + , 5 • , 4G U V , 5 05+, • [1,1] • ST2(%5; , , , , , , 0 5 4, + G , • , 4G U V G , 05+5Non-linear Neurons W +.I ;r;E, compute(W k + . k ! kB and ! k + :%W k ’ • Output Error • Compute z s + | \~: %W k ’ • Back Propagating • For each l +E4,;E4G;r;G compute z k + %%. kb ’z kb ’~: %W k ’ • Output • The gradient of the cost function is given by fg fh { + ! kB z k卷积神经网络 Convolutional Neural NetworkSequence Modeling I want to play game with that little girl.NN for sentence modeling • Convolutional Neural Network (CNN) • Recurrent Neural Network (RNN) • Recursive Neural Network (RNN)Feed Forward Neural Networks全连接 • j k 表示第l层神经元的个数 • L表示神经网络的层数 • 参数个数: j k s k • 权重矩阵参数非常多,训练效率低下 • 数据不足时,欠学习CNN • Convolutional Neural Network是一种前馈神经网络。卷积神经网络 是受生物学上感受野(Receptive Field) 的机制而提出的。一个神经元 的感受野是指特定区域,只有这个区域内的刺激才能够激活该神经元。 • 局部链接 • 权值共享 • 采样 • 具有平移、缩放和扭曲不变性全连接 vs. 卷积 全连接 CNN一维卷积 • 信号x,信号长度n • 滤波器f,滤波器长度m 当: t + 时,相当于移动平均 ! ‘ + H: t ‘ %k’ + :%HH. );[ k B)b_;‘B[b kB [ _ ) 0F %k’ ’ %k’ + :%. k kB 0F %k’ ’两个filters特征映射 Feature Map • 为了增强卷积层的表示能力,我们可以使用 个不同的滤波器来得到 组输出。每一组输出都 共享一个滤波器。如果我们把滤波器看成一个特征提取器,每一组输出都可以看成是输入图像 经过一个特征抽取后得到的特征。因此,在卷积神经网络中每一组输出也叫作一组特征映射 (Feature Map) • 假设第l4,(层的特征映射组数为j kB ,每组特征映射的大小为 kB (+(. kB (V kB 。第l4,( 层的总神经元数:j kB V kB 。第l层的特征映射组数为j l 。如果假设第l层的每一组特征映射 %k;t’ 的输入为第l4,(层的所有组特征映射。第l(层的第 k 组特征映射 %k;t’ 为: • 其中, %k;t;a’ 表示第l4,层的第 组特征向量到第l(层的第 组特征映射所需的滤波器 %k;t’ + :%H. k;t;a kB;a {d a 0F %k;t’ ’两维卷积层的映射关系 %k;’ %k; {d ’ A 输入 特征映射 滤波器 % l ; ; , ’ A ∑ : %k;t’ 输出 特征映射 滤波器 %k;t; {d ’ 偏置 b两维卷积层示例 %k;t’ + :%H. k;t;a kB;a {d a 0F %k;t’ ’连接表 • 第l(层的每一组特征映射都依赖于第l 层的所有特征映射,相当于不同层的特征映射之间是 全连接的关系。实际上,这种全连接关系不是必须的。我们可以让第l(层的每一组特征映 射都依赖于前一层的少数几组特征映射。这样,我们定义一个连接表 来描述不同层的特 征映射之间的连接关系。如果第l层的第 组特征映射依赖于前一层的第 组特征映射, 则 ; + ,,否则为 0 • 这样,假如连接表 的非零个数为 ,,那每个滤波器的大小为 V ,共需要 0 V 0j k 参数 %k;t’ + :% H . k;t;a kB;a {d a / ; 0F %k;t’ ’子采样层 • 卷积层虽然可以显著减少连接的个数,但是每一个特征映射的神经元个数并没有显著减少 • 高维数据à 过拟合 • 降低维度:Pooling、Subsampling • 特征选择、特征抽取子采样层 • 对于卷积层得到的一个特征映射 %k’ ,我们可以将 %k’ 划分为很多区域 t ; +,;( 和F %kb’ 分别是可训练的权重和偏置参数 .j% %k’ ’是指子采样后的特征映射 %kb’ + :%. kb( I .j% t ’0F %kb’ ’ %kb’ + :%. kb( I .j% %k’ ’0F %kb’ ’子采样层 • 最大值采样(Maximum Pooling) • 最小值采样(Minimum Pooling) • 平均值(Average Pooling) • To p K采样(Average Pooling) l K (% t ’+ ST2 )M ) l ) (% t ’ +S¡ )M ) l c (% t ’+ , ¢ t ¢ H ) ¢ ¢ )M l t (% t ’+ £⁄3¥ )M )子采样层示例ExampleCNN在图像处理中的应用 LeNet-5虽然提出时间比较早,但是是一个非常成功的神经网络模型。基于 LeNet-5的 手写数字识别系统在 90 年代被美国很多银行使用,用来识别支票上面的手写数字。 LeNet-5共有 7 层。 LeNet-5 网络结构LeNet-5 LeNet-5 网络结构 • 输入层:输入图像大小为 32× 32 = 1024。 • C1 层:这一层是卷积层。滤波器的大小是 5×5 = 25,共有 6 个滤波器。得到 6 组大小为 28× 28 = 784的特征映射。因此,C1 层的神经元个数为 6 × 784 = 4,704。可训练参数个数为6× 25 + 6 = 156。连接数为 156× 784 = 122,304LeNet-5 LeNet-5 网络结构 • S2 层:这一层为子采样层。由 C1 层每组特征映射中的 2×2 邻域点次采 样为 1 个点,也就是 4 个数的平均。这一层的神经元个数为14× 14 = 196。 可训练参数个数为 6× (1 + 1) = 12。连接数为6×196×(4 + 1) = 122,304LeNet-5 LeNet-5 网络结构 • C3 层:这一层是卷积层。由于 S2 层也有多组特征映射,需要一个连接表 来定义不同层特征映射之间的依赖关系。LeNet-5 的连接表如图所示,共 有60个滤波器,大小是5×5=25。 • 得到 16 组大小为 10×10 = 100 的特征映射。C3 层的神经元个数为 16×100 = 1,600。可训练参数个数为 60×25+16 = 1,516。连接数为 1,516×100 = 151,600。LeNet-5 LeNet-5 中C3层的连接表LeNet-5 LeNet-5 网络结构 • S4层:这一层是一个子采样层,由 2×2 邻域点次采样为 1 个点,得到 16组 5×5大小的特征映射。可训练参数个数为 16×2 = 32。连接数为 16×(4 +1) = 80。LeNet-5 • C5 层:是一个卷积层,得到 120 组大小为 1×1 的特征映射。每个特征映 射与 S4 层的全部特征映射相连。有120×16 = 1,920 个滤波器,大小是 5×5 = 25。C5层的神经元个数为120,可训练参数个数为 1,920×25+120 = 48,120。连接数为120×(16×25+1) = 48,120 • F6 层:是一个全连接层,有 84 个神经元,可训练参数个数为84×(120+1) = 10,164。连接数和可训练参数个数相同,为10,164 • 输出层:输出层由 10 个欧氏径向基函数(Radial Basis Function,RBF) 函数梯度计算 ƒ Oƒ OW k + Ot ,需要将l0,层对应特征映射的误差项z kb;t 进 行上采样操作(和第l 层的大小一样),再和l 层特征映射的激活值偏导数逐元素相乘, 再乘上权重. %kb;t’ ,就得到了z k;t : z %k;t’ + : W k §% %kb;t’ ’ / z %kb;t’ (((((((+ : W k §%¤3%% %kb;t’ ’ / z %kb;t’ ’ + % %kb;t’ ’ / %: W k §¤3 z %kb;t’ ’ 其中,up 为上采用函数(Upsampling)。卷积层的梯度 • 损失函数关于第l 层的第 个特征映射神经元滤波器 );[ k;t;a 的梯度 Oƒ O %k;t;a’ + HH% B)b_;‘B[b kB;a I%z %k;t’ ’ ;‘ ’ i ‘ h i +Z Z % _B)B ; B[B‘ kB;a I' ],“5% z k;t ’ ;‘ ’ i ‘ h i Oƒ OF %k;t’ +H%z k;t ’ );[ );[ • 损失函数关于第 l 层的第 个特征映射的偏置 F « 的梯度可以写为: Oƒ O %k;t;a’ + O ;‘ k;t O %k;t;a’ z %k;t’ Oƒ OF %k;t’ + O ;‘ k;t OF %k;t’ z %k;t’子采样层的梯度 • 我们假定子采样层为l 层,l0,层为卷积层。 • 第l(层的第 个特征映射的误差项z k;t z %k;t’ + : W k §% %kb;t’ ’ / z %kb;t’ (((((((((((+ : W k §%Z z kb;a a ' ],“5% %k;t;a’ ’’ %kb;t’ + :% H . kb;t;a k;a {d a / ; 0F %kb;t’ ’ ‹ %kb;t’ + H . kb;t;a k;a {d a / ; 0F %kb;t’子采样层的梯度 • 损失函数关于第l 层的第 个特征映射神经元滤波器 k;t;a 的梯度 • 损失函数关于第l(层的第 个特征映射的偏置F k 的梯度 Oƒ O %k;t’ + O k;t O %k;t’ z %k;t’ Oƒ OF %k;t’ + O k;t OF %k;t’ z %k;t’ f› ffi %{; ’ +Z % .j% kB;t ’Iz %k;t’ ’ );[ );[ f› ffi %{; ’ +Z %z %k;t’ ’ );[ );[CNN在自然语言处理中的应用 I want to play with that girl .Sentence Modeling I want to play with that girl . lookup文本分类循环神经网络 Recurrent Neural Network前馈、卷积神经网络 • 连接存在层与层之间,每层的节点之间是 无连接的 • 输入和输出的维数都是固定的,不能任意 改变。无法处理变长的序列数据 • 假设每次输入都是独立的,也就是说每次 网络的输出只依赖于当前的输入各种处理任务 • 变长输入 • 不同大小的图片 • 时长不一的视频 • 长短不同的句子 • 序列长度不同的对话 • … • 相互依赖 • 前言要搭后语 • 动画片由连续的图片组成 • 字词搭配 • …循环神经网络 • 循环神经网络( Recurrent Neural Network, RNN) • 前馈、卷积神经网络的输入和输出的维数都是固定的,不能任意改 变。无法处理变长的序列数据。 • 假设每次输入都是独立的,也就是说每次网络的输出只依赖于当前 的输入。 • 循环神经网络通过使用带自反馈的神经元,能够处理任意长度的序列。循环神经网络循环神经网络 • 给定一个输入序列fl+(% ; ;! ‘ ’ O.Mini-batch SGD 批量梯度下降和随机梯度下降的折中 每次(随机)选取m 个样本进行参数的更新梯度消失问题 • 在神经网络中误差反向传播的迭代公式为 • 误差从输出层反向传播时,在每一层都要乘以该层的激活函数的导数 • Sigmod函数、ReLU函数、tanh函数 z k + . kb z kb ~: W k O! OW +! ,4! M ‰5;5G ¿ O! OW + ,4! C M‰5;,¿ sigmod tanh权重初始化 • 权重不能全部设为0 • 每个神经元都有着相同的输出,在反向传播时具有相同的梯度 • 小随机数初始化 • w = np.random.randn(1000) • 问题:一个神经网络的层中的权重值很小,那么在反向传播的时候就会计算出 非常小的梯度(因为梯度与权重值是成比例的)。这就会很大程度上减小反向 传播中的“梯度信号” W +H. ) u:(\ . ) +\ & ) + 5 „ ' W +j„ '%.’„ ' & „ ' . +, j权重初始化:校准方差 • 解决方案:校准方差,除以1/sqrt(n) • w = np.random.randn(n) / np.sqrt(n) • ReLU:w = np.random.randn(n) * np.sqrt(2/n) • b的初始化 • 通常设为0 • 有些设为如0.01的小值 • 这样做能让所有的ReLU单元一开始就激活,这样就能保存并传播一些梯度数据预处理 • 原始的训练数据中,每一维特征的来源以及度量单位不同,会造成这些特 征值的分布范围往往差异很大。 • 标准归一化:将每一个维特征都处理为符合标准正态分布(均值为 0,标准差为 1) • 缩放归一化:通过缩放将特征取值范围归一到 [0, 1] 或 [−1, 1] • 白化:使用 PCA (Principal Component Analysis) 去除掉各个成分之间的相关 性Early-Stop • 在梯度下降训练的过程中,由于过拟合的原因,在训练样本上收敛的参数,并不一定 在测试集上最优。因此,我们使用一个验证集(V alidation Dataset)(也叫开发集 (Development Dataset))来测试每一次迭代的参数在验证集上是否最优。如果在验证 集上的错误率不再下降,就停止迭代。这种策略叫 Early-Stop。如果没有验证集,可以 在训练集上进行交叉验证 训练集 开发集 测试集Early Stop • 利用开发集 • learn model on training data • valuate_score_of_current_model = evaluate on validation data • if valuate_score_of_current_model best_validation_score: • best_validation_score = valuate_score_of_current_model • save current model • patient = 0 • else: patient += 1 • if patient max_patient: – break • 第二轮训练 • 找到最佳训练轮数 • 在训练集和开发集上再训练,当在开发集上达到一个较小值则停止Dropout正则化 Regularization例子 • L1正则项 • E+ E0 . • L2正则项 • 目标函数:E+ E0 C ¢ . ¢ C • 梯度: E+ E+ (. • 权重更新:. + .-R% E+ (.’ + %,4R ’.−R E数据增强 • 不过拟合的另一个途径是数据增强,即自动生成更多的训练数据 • 增加正、负样本 • 增加伪噪声数据学习率 . )[ Q. )[ 4 O\ O. )[加速 • 自适应变长加速 • AdaGard • RMSprop • Adam • AdaDelta 1 2 1 tt t t g g τ τ ρ θθ − = =− ∑ 其中,ρ 是初始的学习率,g τ 是第 τ 次迭代时的梯度。随 着迭代次数的增加,梯度逐渐缩小步骤 • 设计网络结构 • 设定每层节点数 • 算出梯度 • 写代码 • 利用数据调参小结 • 用ReLU作为激活函数 • 分类时用交叉熵作为损失函数 • SGD+mini-batch • 数据预处理(归一化) • 动态学习率(动态调整步长) • 用L1或者L2正则化(跳过前几轮) • Dropout • 层数深(分层训练 ) • 数据增强
展开阅读全文
  语墨文库所有资源均是用户自行上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作他用。
0条评论

还可以输入200字符

暂无评论,赶快抢占沙发吧。

关于本文
本文标题:知识图谱————2.机器学习基础.pdf
链接地址:http://www.wenku38.com/p-65807.html

                                            站长QQ:1002732220      手机号:18710392703    


                                                          copyright@ 2008-2020 语墨网站版权所有

                                                             经营许可证编号:蜀ICP备18034126号

网站客服微信
收起
展开