本文地址:https://www.cnblogs.com/wanger-sjtu/p/17501119.html
VectorizeLoop这个PASS就是对标记为ForKind::kVectorized
的For
循环做向量化处理,并对For循环中的语句涉及到的变量,替换为Ramp
,以便于在Codegen的过程中生成相关的向量化运算的指令。
VectorizeLoop这个PASS的入口函数如下,只有在打开enable_vectorize=true
的情况下载才会被启用,否则VectorizeSkipper
会把ForKind::kVectorized
的For
循环替换为普通循环。
Pass VectorizeLoop(bool enable_vectorize) {
auto pass_func = [=](PrimFunc f, IRModule m, PassContext ctx) {
auto* n = f.CopyOnWrite();
if (enable_vectorize) {
n->body = LoopVectorizer()(std::move(n->body));
} else {
n->body = VectorizeSkipper()(std::move(n->body));
}
return f;
};
return CreatePrimFuncPass(pass_func, 0, "tir.VectorizeLoop", {});
}
下面就以UT中的几个例子,介绍一下源码实现。
vectorize_loop
dtype = "int64"
n = te.var("n")
ib = tvm.tir.ir_builder.create()
A = ib.pointer("float32", name="A")
with ib.for_range(0, n) as i:
with ib.for_range(0, 4, kind="vectorize") as j:
A[i*4+j] += tvm.tir.const(1, A.dtype)
stmt = ib.get()
assert isinstance(stmt.body, tvm.tir.For)
mod = tvm.IRModule.from_expr(tvm.tir.PrimFunc([A, n], stmt))
stmt = tvm.tir.transform.VectorizeLoop()(mod)["main"].body
上面的这个代码完成的是,向量加法,长度为4n的向量A,对每个元素+1。
# before
for (i, 0, n) {
vectorized (j, 0, 4) {
A[((i*4) + j)] = (A[((i*4) + j)] + 1f)
}
}
# after
for (i, 0, n) {
A[ramp((i*4), 1, 4)] = (A[ramp((i*4), 1, 4)] + x4(1f))
}
可以看到在经过VectorizeLoop
的PASS以后,内层的循环消掉了,替换成为了一个Ramp的向量指令,这个在CPU中会被替换为SIMD指令(neon,AVX等)
PASS流程
在向量化的处理的PASS中是在LoopVectorizer中处理的,处理For循环部分。
class LoopVectorizer : public StmtMutator {
public:
Stmt VisitStmt_(const ForNode* op) final {
if (op->kind == ForKind::kVectorized) {
ICHECK(is_zero(op->min));
auto* extent_as_int = op->extent.as();
if (!extent_as_int || extent_as_int->value extent;
}
return Vectorizer(op->loop_var, static_cast(extent_as_int->value))(op->body);
} else {
return StmtMutator::VisitStmt_(op);
}
}
};
当遇到需要向量化的节点时,首先记录循环变量和范围,这个在后续替换相应的Load和Store操作为Ramp时用到。然后就到了Vectorizer部分,遍历For循环体,修改相应的stmt。
Vectorizer(Var var, int var_lanes) : var_(var), var_lanes_(var_lanes) {
ramp_ = Ramp(0, 1, var_lanes);
}
在Vectorizer中对不同的PrimExpr
、Stmt
做了重载。这里不逐一介绍,就以上面的向量加计算,介绍一下用到的函数以及流程。
首先看一下这里的上面sch的For的循环内的计算逻辑:
A[((i*4) + j)] = (A[((i*4) + j)] + 1f)
因为TVM中,Stmt的表达可以视为一个DSL的语言,访问的时候也是按照深度优先的策略遍历的AST,这里把上面的计算过程简单表示为一个AST的语法树,然后再分析一下流程中调用的各个函数是如何处理的。
从上面的AST的示意图可以看出来,对于上面的sch,依次访问了BufferStoreNode
、Add
Mul
、BufferLoadNode
等。这里就以这几个Node的处理介绍一下向量化的过程。
所谓向量化的过程就是把这个标记为kVectorized
的标量循环操作映射到向量化的操作,对于上面的例子来说就是把所有关于j
的访问映射为RampNode,以便于后续处理可以正确生成相应的指令。
BufferStoreNode
BufferStoreNode
中有三部分:
- buffer——写入的buffer
- value——待写入的值或者表达式
- indices——写入buffer的坐标
这里的目的就是修改value
和indices
中的内容。
对于indices
,是在这里完成的。最终通过MapHelper
依次访问了indices
的表达式。
auto fmutate = [this](const PrimExpr& index) { return this->VisitExpr(index); };
Array indices = op->indices.Map(fmutate);
对于value
则是直接遍历。
PrimExpr value = this->VisitExpr(op->value);
AddNode
对于AddNode
和SubNode
都会走到AddSubVec
这个模板函数。
这个函数里面首先会遍历左右表达式,
PrimExpr a = this->VisitExpr(op->a);
PrimExpr b = this->VisitExpr(op->b);
if (a.same_as(op->a) && b.same_as(op->b)) {
return GetRef(op);
} else {
int lanes = std::max(a.dtype().lanes(), b.dtype().lanes());
if (lanes != 1) {
const RampNode* b_ramp = b.as();
const RampNode* a_ramp = a.as();
if (a.dtype().lanes() == 1 && b_ramp) {
return Ramp(fcompute(a, b_ramp->base),
fcompute(make_zero(b_ramp->stride.dtype()), b_ramp->stride), b_ramp->lanes);
}
if (b.dtype().lanes() == 1 && a_ramp) {
return Ramp(fcompute(a_ramp->base, b), a_ramp->stride, a_ramp->lanes);
}
}
return fcompute(BroadcastTo(a, lanes), BroadcastTo(b, lanes));
如果遍历之后没有变化,就直接返回了。而对于这里的我们需要计算的是
((i*4) + j)
j
是需要向量化的坐标。i*4
是没有变化的。遍历以后a
没变化,b
变成了T.Ramp(0, 1, 4)
这时候lanes=4
,会走到第一个if
分支,返回的是新构造的RampNode
T.Ramp(i * 4, 1, 4)
其他的分支也类似。比如:
A[i * 4 + j] + T.float32(1)
// --- after ---
A[i * 4:i * 4 + 4] T.float32(1)
这里会把a、b broadcast为一个向量再做计算。
VarNode
对于这里的VarNode判断就比较简单了,如果匹配到的是需要向量化的变量,就返回构造函数中构造的RampNode
,否则就返回。其他的操作,暂时略过。
Var var = GetRef(op);
if (var.same_as(var_)) {
return ramp_;
}
// ...
else {
return std::move(var);
}
MulNode
PrimExpr a = this->VisitExpr(op->a);
PrimExpr b = this->VisitExpr(op->b);
if (a.same_as(op->a) && b.same_as(op->b)) {
return GetRef(op);
} else {
int lanes = std::max(a.dtype().lanes(), b.dtype().lanes());
if (lanes != 1) {
const RampNode* b_ramp = b.as();
const RampNode* a_ramp = a.as();
if (a_ramp && b.dtype().lanes() == 1 && analyzer_.CanProve(b > 0)) {
return Ramp(a_ramp->base * b, a_ramp->stride * b, a_ramp->lanes);
}
if (b_ramp && a.dtype().lanes() == 1 && analyzer_.CanProve(a > 0)) {
return Ramp(b_ramp->base * a, b_ramp->stride * a, b_ramp->lanes);
}
}
return Mul(BroadcastTo(a, lanes), BroadcastTo(b, lanes));
}
return BinaryVec(op);
这里的处理逻辑与Add基本一致。只是在计算RampNode的时候有点区别。
服务器托管,北京服务器托管,服务器租用 http://www.fwqtg.net
机房租用,北京机房租用,IDC机房托管, http://www.fwqtg.net
相关推荐: ChatGPT 之后,B 端产品设计会迎来颠覆式革命吗?| Liga妙谈
近日,脑机接口公司 Neuralink 宣布,其植入式脑机接口设备首次人体临床研究已被准许启动。遥想当年,我们还嘲讽罗老师「动嘴做 PPT」,谁曾想不久后我们可能连嘴都不用动🙊。 脑机接口何时会引爆人机交互革命尚未可知,但是 ChatGPT 已然掀起了大家对「…