人工智能

人工智能专栏,分享图像处理、 NLP算法、深度学习、神经网络等领域的知识。

  • 自编码器AutoEncoder处理Mnist数据集

    在深度学习中,自编码器(AutoEncoder, AE)是一种无监督的神经网络模型,它可以学习到输入数据的隐含特征,这称为编码(coding),同时用学习到的新特征可以重构出原始输入数据,称之为解码(decoding)。本文用一个简单的Pytorch自带数据集Mnist,来演示编码和解码过程。

    人工智能 1346 2022-06-07
  • Pytorch LSTM模型生成藏头古诗

    循环神经网络,被广泛应用在自然语言处理领域(NLP),本文就使用RNN的一个改进模型LSTM来做一个小案例,生成藏头古诗。

    人工智能 770 2022-06-06
  • Word2Vec迭代加载文本和模型增量学习

    前文介绍了Word2Vec的使用流程,需要先导入文本,再训练模型。但真实场景中,可能会面临两个问题,一是训练数据不是一个文件,而是很多个小文档;二是模型也不是一成不变的,可能会有更新的需求。下面就来解决这两个问题,迭代加载文本和模型增量学习。

    人工智能 873 2022-06-05
  • Word2Vec分析人民的名义小说文本相似度

    前文介绍了文本向量化类 Gensim.Word2Vec 的用法,本文继续用 Word2Vec 写一个小案例,用《人民的名义》小说文本,来训练一个Word2Vec,分析小说中人物的姓名文本相似度。

    人工智能 823 2022-06-04
  • 文本向量化 Gensim.Word2Vec 用法详解

    文本向量化(Word2Vec)自2013年被Google团队发明之后,就成了自然语言处理(NLP)的标配,只有将文本转化为向量之后,才能做进一步的探索。本文介绍使用Gensim中的Word2vec来实现文本向量化。

    人工智能 1947 2022-06-03
  • PyTorch 两层神经网络实现FizzBuzz游戏

    FizzBuzz问题本质上是一个四分类问题,即输入一个数字,我们需要将其分为数字本身、Fizz、Buzz、FizzBuzz其中的一类。我们可以搭建一个神经网络,其输入层、隐层、输出层均为全连接层,借助它完成分类任务,进而解决问题。

    人工智能 681 2022-06-02
  • Pytorch 继承nn.Module定义神经网络模型类

    前面几篇文章,已经基本完全的介绍了模型定义的各种细节,包括模型定义、损失反向传播、权重参数更新等。但我们使用 Sequential 快速搭建的网络模型,只能处理简单的业务,如果碰到复杂的业务场景,继承 nn.Module 自定义模型处理类,将会是更好的选择。

    人工智能 784 2022-06-01
  • Pytorch Optimizer更新模型权重参数

    承接上文,我们使用Sequential改造了神经网络结构,但是更新权重参数依然很麻烦,其实Pytorch中也有更新权重参数的类,而且还会使用一些策略,加快模型收敛,在前面文章《深度学习中的优化算法Optimizer比较和总结》总体介绍过,本文结合这些算法,再次优化代码。

    人工智能 1094 2022-05-31
  • Pytorch Sequential快速搭建神经网络

    上一篇文章中,介绍了Pytorch的自动求导机制,可以帮我们通过反向传播,求解参数的导数。但模型中的神经层结构,还是需要自己构建,会很麻烦,本文介绍Pytorch中通过Sequential模型容器,快速搭建神经网络的方法。

    人工智能 633 2022-05-30
  • Pytorch Autograd简化神经网络模型

    前面文章中,为了更好的理解神经网络模型,使用Numpy手写了一个两层的神经网络模型,但如果网络层数增多,激活函数变得复杂的情况下,这种硬解的方式会非常麻烦。可喜的是,Pytorch给我们提供了自动求导(Autograd)的功能,可以在计算损失后,自动反向传播求导。

    人工智能 578 2022-05-29
  • 手写AI算法之Numpy实现两层神经网络

    很多人可以使用框架,快速搭建神经网络,但对神经网络的实现及反向传播一直是一知半解。本文用Numpy,通过一个隐层连接一个ReLU,再使用L2 Loss,反向传播,原生实现一个两层的线性神经网络,帮大家更好的理解神经网络的结构。

    人工智能 641 2022-05-28
  • Pytorch深度学习基础之Tensor

    Pytorch是一个基于Python的科学计算库,类似于Numpy,但它可以使用GPU运算,也可以用它定义深度学习模型,并训练。本文介绍Pytorch基本数据类型Tensor,Tensor类似于Numpy的ndarray,可以在GPU上进行加速运算。

    人工智能 736 2022-05-27
  • Pytorch RNN根据正弦sin模拟余弦cos曲线

    循环神经网络(RNN)让神经网络有了记忆,能够更好的模拟序列化的数据。虽然RNN的原理很简单,但代码特别是参数上,需要花一些时间去理解。以下我们用Pytorch中的RNN类,实现用sin曲线预测cos曲线的模型。

    人工智能 1106 2022-05-26
  • EasyOCR图片文字识别并标注位置

    EasyOCR是一款支持多国语言,且轻量的文字识别模块,本文以一张真实的图片,带大家使用EasyOCR来做一个图片文字识别,并利用EasyOCR返回的坐标位置,将文字位置在图片中标注出来。

    人工智能 2395 2022-05-25
  • 概率类模型评估指标之对数损失(Log Loss)

    前文介绍了概率类模型的第一种评估指标:布里尔分数,本文介绍另外一种,对数损失,又叫对数似然或者交叉熵损失,它的定义是,对于一个给定的概率分类器,在预测概率为条件的情况下,真实概率发生的可能性的负对数。值越小,效果越好。

    人工智能 1150 2022-05-24
  • 概率类模型评估指标之布里尔分数(Brier Score)

    混淆矩阵和精准率可以帮我们了解贝叶斯的分类结果,然而,选择贝叶斯分类,大多数时候并不是为了单纯追求效果,而是希望看到预测的相关概率。所以对于概率类模型,还要了解两种独有的评估指标。本文先介绍第一种:布里尔分数(Brier Score)。

    人工智能 3267 2022-05-23
  • Sklearn高斯分布下的朴素贝叶斯(GaussianNB)

    本文先介绍高斯朴素贝叶斯(GaussianNB),它通过假设P(xi|Y)服从高斯分布(即正态分布),来估计每个特征下每个类别上的条件概率。以下我们用鸢尾花数据集,对高斯朴素贝叶斯做一些简单探索。

    人工智能 2500 2022-05-22
  • Sklearn使用分箱处理非线性回归问题

    前文介绍了多项式回归的方式,来提升非线性数据在线性回归模型上的表现,本文介绍另一种重要方法,对数据进行分箱,也就是离散化。

    人工智能 1131 2022-05-21
  • Sklearn多项式回归拓展特征项解释性

    前一篇文章介绍了多项式回归拓展后,对特定数据集有很好的拟合效果,那么拓展后的特征项是否具有解释性呢?本文以鸢尾花数据集,来对拓展后的特种项,做一个解释说明。但鸢尾花数据集拓展后的拟合效果并没有多大提高,就不做进一步回归拟合了。

    人工智能 648 2022-05-20
  • Sklearn多项式回归拟合三角函数曲线

    前面我们介绍的线性回归、岭回归、Lasso都是线性回归模型,但有些场景下,数据分布并不是简单的线性模型,本节介绍线性回归里一个非常重要的改进方法:多项式回归。

    人工智能 1928 2022-05-19