From bbb9a950c81f9fd5ad4cd9af98b7f14d40161d93 Mon Sep 17 00:00:00 2001 From: Happy Sugar Life <777Jonathansum@gmail.com> Date: Tue, 24 Nov 2020 22:45:23 -0800 Subject: [PATCH 1/4] [ZH] Fixing the latex issue --- docs/zh/week13/13-3.md | 6 ++++-- 1 file changed, 4 insertions(+), 2 deletions(-) diff --git a/docs/zh/week13/13-3.md b/docs/zh/week13/13-3.md index e902628c6..8690800fe 100644 --- a/docs/zh/week13/13-3.md +++ b/docs/zh/week13/13-3.md @@ -21,7 +21,7 @@ translator: Jonathan Sum(😊🍩📙) Unlike a sequence, it does not have an order. - Hidden vector $\boldsymbol{h}$ is given by linear combination of the vectors in the set. - We can express this as $\boldsymbol{X}\boldsymbol{a}$ using matrix vector multiplication, where $\boldsymbol{a}$ contains coefficients that scale the input vector $\boldsymbol{x}_{i}$. --> -在自我注意力机制中,我们有一个输入集$\lbrace\boldsymbol{x}\_{i}\rbrace^{t}_{i=1}$。不像序列那样,它没有顺序的。 +在自我注意力机制中,我们有一个输入集$\lbrace\boldsymbol{x}\_{i}\rbrace^{t}\_{i=1}$。不像序列那样,它没有顺序的。 隐藏向量$\boldsymbol{h}$是由集之中的向量的线性组合得出来的。 我们可以用矩阵向量乘法来以$\boldsymbol{X}\boldsymbol{a}$去表达这个东西,这里$\boldsymbol{a}$包含一些会缩放向量$\boldsymbol{x}_{i}$的系数。 @@ -78,7 +78,9 @@ In the context of GCN, this means that if we have multiple incoming edges,*i.e.* On the other hand, if we have only one incoming edge, this value gets smaller. To remedy this issue of the value being proportionate to the number of incoming edges, we divide it by the number of incoming edges $d$. We then apply rotation $\boldsymbol{V}$ to $\boldsymbol{X}\boldsymbol{a}d^{-1}$. --> -记得在自我注意力机制中,隐藏向量$\boldsymbol{h}$是以$\boldsymbol{X}\boldsymbol{a}$来计算出来,也就是说在$\boldsymbol{X}$中的行是以在$\boldsymbol{a}$中的因素缩放出来的。而图形卷积网络的内容中,这意思着这样,如果我们有多个由外传入来的边,比如在邻接向量$\boldsymbol{a}$中有多个1,{X}\boldsymbol{a}$就会变得很大。在另一面,如果我们只有一个传入来的边,这个值就会变得很细。去补救这个数值与由外传入来的边是成比例的问题,我们对它除以一个数,这个数就是由外传入来的边有多少的数量,这个数叫$d$。我们之后对$\boldsymbol{X}\boldsymbol{a}d^{-1}$使用一个旋转$\boldsymbol{V}$。 + + +记得在自我注意力机制中,隐藏向量$\boldsymbol{h}$是以$\boldsymbol{X}\boldsymbol{a}$来计算出来,也就是说在$\boldsymbol{X}$中的行是以在$\boldsymbol{a}$中的因素缩放出来的。而图形卷积网络的内容中,这意思着这样,如果我们有多个由外传入来的边,比如在邻接向量$\boldsymbol{a}$中有多个1,{X}\_boldsymbol{a}$就会变得很大。在另一面,如果我们只有一个传入来的边,这个值就会变得很细。去补救这个数值与由外传入来的边是成比例的问题,我们对它除以一个数,这个数就是由外传入来的边有多少的数量,这个数叫$d$。我们之后对$\_boldsymbol{X}\_boldsymbol{a}d^{-1}$使用一个旋转$\_boldsymbol{V}$。 我們可以以這個隱藏表示$\boldsymbol{h}$來以下方的矩陣符號來表達整個輸入集$\boldsymbol{x}$ From bebccdb1463a5f0b8d88f8ff749ef059fc145edf Mon Sep 17 00:00:00 2001 From: Happy Sugar Life <777Jonathansum@gmail.com> Date: Wed, 25 Nov 2020 05:59:43 -0800 Subject: [PATCH 2/4] Update 13-3.md --- docs/zh/week13/13-3.md | 3 +-- 1 file changed, 1 insertion(+), 2 deletions(-) diff --git a/docs/zh/week13/13-3.md b/docs/zh/week13/13-3.md index 8690800fe..21a78ded9 100644 --- a/docs/zh/week13/13-3.md +++ b/docs/zh/week13/13-3.md @@ -78,9 +78,8 @@ In the context of GCN, this means that if we have multiple incoming edges,*i.e.* On the other hand, if we have only one incoming edge, this value gets smaller. To remedy this issue of the value being proportionate to the number of incoming edges, we divide it by the number of incoming edges $d$. We then apply rotation $\boldsymbol{V}$ to $\boldsymbol{X}\boldsymbol{a}d^{-1}$. --> - +Translation for chinese version one. Version one is the one has latex issue.记得在自我注意力机制中,隐藏向量$\boldsymbol{h}$是以$\boldsymbol{X}\boldsymbol{a}$来计算出来,也就是说在$\boldsymbol{X}$中的行是以在$\boldsymbol{a}$中的因素缩放出来的。而图形卷积网络的内容中,这意思着这样,如果我们有多个由外传入来的边,比如在邻接向量$\boldsymbol{a}$中有多个1,{X}\boldsymbol{a}$就会变得很大。在另一面,如果我们只有一个传入来的边,这个值就会变得很细。去补救这个数值与由外传入来的边是成比例的问题,我们对它除以一个数,这个数就是由外传入来的边有多少的数量,这个数叫$d$。我们之后对$\boldsymbol{X}\boldsymbol{a}d^{-1}$使用一个旋转$\boldsymbol{V}$。 -记得在自我注意力机制中,隐藏向量$\boldsymbol{h}$是以$\boldsymbol{X}\boldsymbol{a}$来计算出来,也就是说在$\boldsymbol{X}$中的行是以在$\boldsymbol{a}$中的因素缩放出来的。而图形卷积网络的内容中,这意思着这样,如果我们有多个由外传入来的边,比如在邻接向量$\boldsymbol{a}$中有多个1,{X}\_boldsymbol{a}$就会变得很大。在另一面,如果我们只有一个传入来的边,这个值就会变得很细。去补救这个数值与由外传入来的边是成比例的问题,我们对它除以一个数,这个数就是由外传入来的边有多少的数量,这个数叫$d$。我们之后对$\_boldsymbol{X}\_boldsymbol{a}d^{-1}$使用一个旋转$\_boldsymbol{V}$。 我們可以以這個隱藏表示$\boldsymbol{h}$來以下方的矩陣符號來表達整個輸入集$\boldsymbol{x}$ From c5865d3c50e9bba4c1bd2a7fd8d6b1c6440f507b Mon Sep 17 00:00:00 2001 From: Happy Sugar Life <777Jonathansum@gmail.com> Date: Wed, 25 Nov 2020 06:10:34 -0800 Subject: [PATCH 3/4] Update 13-3.md --- docs/zh/week13/13-3.md | 5 ++++- 1 file changed, 4 insertions(+), 1 deletion(-) diff --git a/docs/zh/week13/13-3.md b/docs/zh/week13/13-3.md index 21a78ded9..7f32c9999 100644 --- a/docs/zh/week13/13-3.md +++ b/docs/zh/week13/13-3.md @@ -78,7 +78,10 @@ In the context of GCN, this means that if we have multiple incoming edges,*i.e.* On the other hand, if we have only one incoming edge, this value gets smaller. To remedy this issue of the value being proportionate to the number of incoming edges, we divide it by the number of incoming edges $d$. We then apply rotation $\boldsymbol{V}$ to $\boldsymbol{X}\boldsymbol{a}d^{-1}$. --> -Translation for chinese version one. Version one is the one has latex issue.记得在自我注意力机制中,隐藏向量$\boldsymbol{h}$是以$\boldsymbol{X}\boldsymbol{a}$来计算出来,也就是说在$\boldsymbol{X}$中的行是以在$\boldsymbol{a}$中的因素缩放出来的。而图形卷积网络的内容中,这意思着这样,如果我们有多个由外传入来的边,比如在邻接向量$\boldsymbol{a}$中有多个1,{X}\boldsymbol{a}$就会变得很大。在另一面,如果我们只有一个传入来的边,这个值就会变得很细。去补救这个数值与由外传入来的边是成比例的问题,我们对它除以一个数,这个数就是由外传入来的边有多少的数量,这个数叫$d$。我们之后对$\boldsymbol{X}\boldsymbol{a}d^{-1}$使用一个旋转$\boldsymbol{V}$。 +记得在自我注意力机制中,隐藏向量$\boldsymbol{h}$是以$\boldsymbol{X}\boldsymbol{a}$来计算出来,也就是说在$\boldsymbol{X}$中的行是以在$\boldsymbol{a}$中的因素缩放出来的。 +而图形卷积网络的内容中,这意思着这样,如果我们有多个由外传入来的边,比如在邻接向量$\boldsymbol{a}$中有多个1,$\boldsymbol{X}\boldsymbol{a}$就会变得很大。 +在另一面,如果我们只有一个传入来的边,这个值就会变得很细。去补救这个数值与由外传入来的边是成比例的问题,我们对它除以一个数, +这个数就是由外传入来的边有多少的数量,这个数叫$d$。我们之后对$\_boldsymbol{X}\boldsymbol{a}d^{-1}$使用一个旋转$\_boldsymbol{V}$。 From f164f80bb644ca674ad39c47913054e43b7c7e07 Mon Sep 17 00:00:00 2001 From: Happy Sugar Life <777Jonathansum@gmail.com> Date: Wed, 25 Nov 2020 06:17:38 -0800 Subject: [PATCH 4/4] Update 13-3.md --- docs/zh/week13/13-3.md | 10 ++++++---- 1 file changed, 6 insertions(+), 4 deletions(-) diff --git a/docs/zh/week13/13-3.md b/docs/zh/week13/13-3.md index 7f32c9999..0404ee3e3 100644 --- a/docs/zh/week13/13-3.md +++ b/docs/zh/week13/13-3.md @@ -78,10 +78,12 @@ In the context of GCN, this means that if we have multiple incoming edges,*i.e.* On the other hand, if we have only one incoming edge, this value gets smaller. To remedy this issue of the value being proportionate to the number of incoming edges, we divide it by the number of incoming edges $d$. We then apply rotation $\boldsymbol{V}$ to $\boldsymbol{X}\boldsymbol{a}d^{-1}$. --> -记得在自我注意力机制中,隐藏向量$\boldsymbol{h}$是以$\boldsymbol{X}\boldsymbol{a}$来计算出来,也就是说在$\boldsymbol{X}$中的行是以在$\boldsymbol{a}$中的因素缩放出来的。 -而图形卷积网络的内容中,这意思着这样,如果我们有多个由外传入来的边,比如在邻接向量$\boldsymbol{a}$中有多个1,$\boldsymbol{X}\boldsymbol{a}$就会变得很大。 -在另一面,如果我们只有一个传入来的边,这个值就会变得很细。去补救这个数值与由外传入来的边是成比例的问题,我们对它除以一个数, -这个数就是由外传入来的边有多少的数量,这个数叫$d$。我们之后对$\_boldsymbol{X}\boldsymbol{a}d^{-1}$使用一个旋转$\_boldsymbol{V}$。 +记得在自我注意力机制中,隐藏向量$\boldsymbol{h}$是以$\boldsymbol{X}\boldsymbol{a}$来计算出来, +也就是说在$\boldsymbol{X}$中的行是以在$\boldsymbol{a}$中的因素缩放出来的。而图形卷积网络的内容中, +这意思着这样,如果我们有多个由外传入来的边,比如在邻接向量$\boldsymbol{a}$中有多个1,$\_boldsymbol{X}\_boldsymbol{a}$就会变得很大。 +在另一面,如果我们只有一个传入来的边,这个值就会变得很细。 +去补救这个数值与由外传入来的边是成比例的问题,我们对它除以一个数, +这个数就是由外传入来的边有多少的数量,这个数叫$d$。我们之后对$\_boldsymbol{X}\_boldsymbol{a}d^{-1}$使用一个旋转$\_boldsymbol{V}$。