Attention is all you need

前言

###encoder-decoder框架

在nlp任务中,比如机器翻译,encoder-decoder是一种比较常用的学习框架,将原文x输入到encoder中,encoder输出context c作为decoder的部分输入,这里的c就包含了原文x的所有信息。

阅读更多

理解word2vec

自然语言处理任务中要处理的对象是单词或者词组,单词可以看做是类别型特征,虽然tree-based模型可以采用类别特征,但包括神经网络在内的大部分机器学习模型只能处理数值型特征。因此,在使用模型时通常需要将单词等特征转化为数值。最常见的方法是one-hot encoding。但这种方法编码出来的特征非常稀疏,不利于特征学习,而且无法度量单词之间的相似度。google在13年提出的word2vec方法利用一个浅层的神经网络将稀疏的特征向量映射到稠密的低维空间中,其动机是:位于相同上下文的单词应当有相似的语义,利用的是单词的共现性。 准确的说,学习出单词的embedding只是模型的一个“副作用”,word2vec是一个框架,它包含两个建模函数,或者说是两个建模角度,分别是CBOW和Skip-Grams。

阅读更多

lightgbm 相关参数

主要参数

  1. boosting type,对应的参数名为: boosting_type, boost:
    a. gbdt [default]
    b. gbrt
    c. rf
    d. random_forest
    e. dart
    f. goss

阅读更多

git note

git环境中的三个重要概念

  • 工作目录
  • 本地仓库
  • 远程仓库
    用户在工作目录中更改的文件通过stage 和 commit 提交到本地仓库,本地仓库通过push命令同步到远程仓库

阅读更多

Deep Learning Chapter16

http://www.cnblogs.com/mata123/p/7787395.html

阅读更多