Jittor: 即时编译深度学习框架
Jittor 是一个基于即时编译和元算子的高性能深度学习框架,整个框架在即时编译的同时,还集成了强大的Op编译器和调优器,为您的模型生成定制化的高性能代码。
Jittor前端语言为Python。前端使用了模块化的设计,类似于PyTorch,Keras,后端则使用高性能语言编写,如CUDA,C++。
下面的代码演示了如何一步一步使用Python代码,从头对一个双层神经网络建模。
import jittor as jt
from jittor import Module
from jittor import nn
class Model(Module):
def __init__(self):
self.layer1 = nn.Linear(1, 10)
self.relu = nn.Relu()
self.layer2 = nn.Linear(10, 1)
def execute (self,x) :
x = self.layer1(x)
x = self.relu(x)
x = self.layer2(x)
return x
def get_data(n): # generate random data for training test.
for i in range(n):
x = np.random.rand(batch_size, 1)
y = x*x
yield jt.float32(x), jt.float32(y)
model = Model()
learning_rate = 0.1
optim = nn.SGD(model.parameters(), learning_rate)
for i,(x,y) in enumerate(get_data(n)):
pred_y = model(x)
loss = ((pred_y - y)**2)
loss_mean = loss.mean()
optim.step (loss_mean)
print(f"step {i}, loss = {loss_mean.data.sum()}")
大纲
安装
Jittor使用Python和C ++编写。 它需要用于即时编译的编译器。当前,我们支持三种编译器:
- CPU 编译器 (需要下列至少一个)
- g++ (>=5.4.0)
- clang (>=8.0)推荐
- GPU 编译器(可选)
- nvcc(>=10.0)
Jittor 一共提供三种方式安装: pip安装, 一键脚本安装 和 手动安装.
Pip 安装
如果您已经装好编译器,我们强烈推荐您使用这种方法:
sudo apt install python-dev
sudo pip install https://github.com/Jittor/jittor.git
python3 -m jittor.test.test_example
如果测试运行通过,恭喜你已经安装完成.jittor会自动在路径中寻找合适的编译器, 如果您希望手动指定编译器, 请使用环境变量 cc_path
和 nvcc_path
(可选).
一键脚本安装
一键脚本安装会帮您安装好所需的编译器.
我们提供能快速安装最新版本Jittor的单行命令(Ubuntu> = 16.04):
# install with clang and cuda
git clone https://github.com/Jittor/jittor.git && with_clang=1 with_cuda=1 bash ./jittor/script/install.sh
# install with clang
git clone https://github.com/Jittor/jittor.git && with_clang=1 bash ./jittor/script/install.sh
# install with g++ and cuda
git clone https://github.com/Jittor/jittor.git && with_gcc=1 with_cuda=1 bash ./jittor/script/install.sh
# install with g++
git clone https://github.com/Jittor/jittor.git && with_gcc=1 bash ./jittor/script/install.sh
执行后,脚本将显示一些需要导出的环境变量。
如果将Jittor用于CPU计算,则强烈建议使用clang(> = 8.0)作为Jittor的后端编译器。 因为Jittor会用到其中一些定制的优化。
手动安装
我们将逐步演示如何在Ubuntu 16.04中安装Jittor,其他Linux发行版可能可以使用类似的命令。
步骤一:选择您的后端编译器
# g++
sudo apt install g++ build-essential libomp-dev
# OR clang-8
wget -O - https://apt.llvm.org/llvm.sh > /tmp/llvm.sh
bash /tmp/llvm.sh 8
步骤二:安装Python和python-dev
Jittor需要python的版本>=3.7。
sudo apt install python3.7 python3.7-dev
步骤三:运行Jittor
整个框架是及时编译的。 让我们通过pip安装jittor
git clone https://git.net9.org/cjld/jittor.git
sudo pip3.7 install ./jittor
export cc_path="clang-8"
# if other compiler is used, change cc_path
# export cc_path="g++"
# export cc_path="icc"
# run a simple test
python3.7 -m jittor.test.test_example
如果通过了测试,那么您的Jittor已经准备就绪。
可选步骤四:启用CUDA
在Jittor中使用CUDA非常简单,只需设置环境值nvcc_path
# replace this var with your nvcc location
export nvcc_path="/usr/local/cuda/bin/nvcc"
# run a simple cuda test
python3.7 -m jittor.test.test_cuda
如果测试通过,则可以通过设置use_cuda
标识符在Jittor中启用CUDA。
import jittor as jt
jt.flags.use_cuda = 1
可选步骤五:进行完整测试
要检查Jittor的完整性,您可以运行完整的测试。
python3.7 -m jittor.test -v
如果这些测试失败,请为我们报告错误,我们十分欢迎您为Jittor做出贡献^ _ ^
教程
在教程部分,我们将简要解释Jittor的基本概念。
要使用Jittor训练模型,您需要了解两个主要概念:
- Var:Jittor的基本数据类型
- Operations:Jittor的算子与numpy类似
数据类型
首先,让我们开始使用Var。Var是jittor的基本数据类型,为了运算更加高效Jittor中的计算过程是异步的。 如果要访问数据,可以使用Var.data
进行同步数据访问。
import jittor as jt
a = jt.float32([1,2,3])
print (a)
print (a.data)
# Output: float32[3,]
# Output: [ 1. 2. 3.]
此外我们可以给变量起一个名字。
c.name('c')
print(c.name())
# Output: c
数据运算
Jittor的算子与numpy类似。 让我们尝试一些运算, 我们通过Opjt.float32
创建Var a
和b
,并将它们相加。 输出这些变量相关信息,可以看出它们具有相同的形状和类型。
import jittor as jt
a = jt.float32([1,2,3])
b = jt.float32([4,5,6])
c = a*b
print(a,b,c)
print(type(a), type(b), type(c))
# Output: float32[3,] float32[3,] float32[3,]
# Output: <class 'jittor_core.Var'> <class 'jittor_core.Var'> <class 'jittor_core.Var'>
除此之外,我们使用的所有算子jt.xxx(Var,…)
都具有别名Var.xxx(…)
。 例如:
c.max() # alias of jt.max(a)
c.add(a) # alias of jt.add(c, a)
c.min(keepdims=True) # alias of jt.min(c, keepdims=True)
如果您想知道Jittor支持的所有运算,可以运行help(jt.ops)
。 您在jt.ops.xxx
中找到的所有运算都可以通过别名jt.xxx
。
help(jt.ops)
# Output:
# abs(x: core.Var) -> core.Var
# add(x: core.Var, y: core.Var) -> core.Var
# array(data: array) -> core.Var
# binary(x: core.Var, y: core.Var, op: str) -> core.Var
# ......
更多教程
如果您想进一步了解Jittor,请查看以下教程:
- 快速开始
- 进阶
贡献
Jittor还很年轻。它可能存在错误和问题。请在我们的错误跟踪系统中报告它们。我们欢迎您为Jittor做出贡献。此外,如果您对Jittor有任何想法,请告诉我们,Email:jittor@qq.com。
团队
Jittor目前由来自清华大学计算机图形学组的梁盾,杨国烨,杨国炜和周文洋等博士生维护。 如果您也对Jittor感兴趣并希望对其进行改进,请加入我们!
版权声明
如LICENSE.txt文件中所示,Jittor使用Apache 2.0版权协议。