简介
本文介绍了如何将基于C++
的分词工具cppjieba
封装成一个Tensorflow Custom Op。
- 仓库地址
- 原始的cppjieba仓库
- 我们修改的分支cppjieba仓库
- 我们在深度学习开源平台DELTA中也使用了这个OP。
安装
目前支持python3.6;支持MacOS和Linux;在tf1.14下测试通过。
1 | pip install tf-jieba |
快速使用
创建一个测试目录,在该目录下:
1 | wget https://github.com/applenob/tf_jieba/raw/master/custom_test.py |
Tensorflow Custom Op
- 官方文档:https://www.tensorflow.org/guide/create_op
- 官方仓库:https://github.com/tensorflow/custom-op
- 可借鉴的op:https://github.com/tensorflow/lingvo/tree/master/lingvo/core/ops
编写Custom Op (Operator)就是将一些用C/C++
写的特定的计算操作,封装成tensorflow平台的算子。用户可以通过不同的语言使用这些op,比如C++
或者Python,就像使用官方的op一样。
工业届使用Tensorflow,一般是用python开发,用C++
上线。这样,一些非Tensorflow的操作,就需要维护两个语言的版本。比如分词,Jieba是大家熟知的常用的分词工具,它的实现有python也有C++
,甚至还有其他语言。但不同的实现往往具体计算会有微小差异,这样就会导致线上和线下的模型结果差异。使用OP封装就可以解决这个问题。
另外一个解决方案是将C++
的代码用swig
这类工具添加python接口。但是使用OP 封装,还可以将这些操作序列化(Protobufer),在所有支持tensorflow的地方都可以跑这些操作。想象一下,你把所有的数据预处理都写成op,你拿着一个SavedModel
,部署到tf-serving
上后,不需要其他额外代码,就可以拿到模型结果。
大致流程
目前Tensorflow官网的介绍其实已经非常详细了,建议详细阅读。我根据自己的理解再做一些补充。
编译一个自定义op主要流程是下面五步:
- 1.在c++文件中注册新的op。
- 2.用c++实现这个op。(kernel)
- 3.新建一个python的wrapper(可选)。
- 4.写一个计算该op的梯度的方式(可选)。
- 5.测试该op。
1.注册op
注册op不仅是让系统知道这个op的存在,还定义了这个op的C++
版接口。
核心代码:
1 | REGISTER_OP("JiebaCut") |
Input
和Output
是这个op的输入和输出,Attr
指的是其他参数。这里注意的是输入输出和Attr
的类型表示不一样。输入输出的类型更像是python中tensorflow的类型;而Attr
的类型参考这里:
另外需要注意ShapeFn
,用于支持tensorflow中shape inference
的功能,主要实现两个功能:1.确保输入shape没有问题;2.确定输出的shape。这里使用的是UnchangedShape
函数,因为输入和输出的shape是一样的。
2.实现kernel
自定义op类要继承OpKernel
类。
构造函数中初始化相关参数,在构图的时候调用;compute
函数中定义前向计算流程,在session run
的时候调用。
1 | void Compute(OpKernelContext* ctx) override { |
compute
函数大致就是先把tensor
数据结构转成C++
数据结构;然后进行计算;然后再将计算结果包装成tensor
数据结构返回。因此,C++
数据结构和tensor
的数据交换比较重要:
tensor
到C++
:tensor
对象可以调用scalar<string>()
或vector<string>()
或matrix<string>()
来获取其内部数据,然后再直接(i)
或者(i,j)
获取某个位置的元素的引用。C++
到tensor
:先声明一个tensor
对象,然后类似于上面的操作,将C++
数据赋值给相应的引用。- 具体操作参考这里
- 多线程和GPU相关请参考官网
实现完以后,后面还需加上注册kernel的代码。
1 | REGISTER_KERNEL_BUILDER(Name("JiebaCut").Device(DEVICE_CPU), JiebaCutOp); |
3.编译
这里主要介绍使用Makefile编译的方法,使用bazel编译参考官网。
1 | TF_CFLAGS=( $(python -c 'import tensorflow as tf; print(" ".join(tf.sysconfig.get_compile_flags()))') ) |
4.python封装
python封装主要实现两步:
1.将op从编译好的.so
库中取出:
1 | path = glob(os.path.join(this_directory, 'x_ops.*so'))[0] |
2.设置一些参数检查:
1 | def jieba_cut(input_sentence, |
总结
本文介绍了如何将基于C++
的分词工具cppjieba
封装成一个Tensorflow Custom Op。欢迎使用tf-jieba和DELTA