From d0e95b348f13ffee783c86b6a317eff6c68114e3 Mon Sep 17 00:00:00 2001 From: tt-anh-eole Date: Tue, 28 May 2019 17:21:09 +0900 Subject: [PATCH 01/23] Start translating --- ja/convolutional-neural-networks.md | 716 ++++++++++++++++++++++++++++ 1 file changed, 716 insertions(+) create mode 100644 ja/convolutional-neural-networks.md diff --git a/ja/convolutional-neural-networks.md b/ja/convolutional-neural-networks.md new file mode 100644 index 000000000..5f13a2577 --- /dev/null +++ b/ja/convolutional-neural-networks.md @@ -0,0 +1,716 @@ +**Convolutional Neural Networks translation** + +
+ +**1. Convolutional Neural Networks cheatsheet** + +⟶ 畳み込み神経の網チートシート + +
+ + +**2. CS 230 - Deep Learning** + +⟶ CS 230 - 深層学習 + +
+ + +**3. [Overview, Architecture structure]** + +⟶ [概要、アーキテクチャ構造] + +
+ + +**4. [Types of layer, Convolution, Pooling, Fully connected]** + +⟶ [層のタイプ、畳み込み、プーリング、完全に接続された] + +
+ + +**5. [Filter hyperparameters, Dimensions, Stride, Padding]** + +⟶ + +
[フィルタハイパーパラメータ、寸法、ストライド、詰め物] + + +**6. [Tuning hyperparameters, Parameter compatibility, Model complexity, Receptive field]** + +⟶ + +
+ + +**7. [Activation functions, Rectified Linear Unit, Softmax]** + +⟶ [活性化関数、修正済み線形単位、ソフトマックス] + +
+ + +**8. [Object detection, Types of models, Detection, Intersection over Union, Non-max suppression, YOLO, R-CNN]** + +⟶ [オブジェクト検出、モデルのタイプ、検出、組合の上の交差点、非最大抑制、YOLO、R-CNN] + +
+ + +**9. [Face verification/recognition, One shot learning, Siamese network, Triplet loss]** + +⟶ + +
+ + +**10. [Neural style transfer, Activation, Style matrix, Style/content cost function]** + +⟶ + +
+ + +**11. [Computational trick architectures, Generative Adversarial Net, ResNet, Inception Network]** + +⟶ + +
+ + +**12. Overview** + +⟶ 概要 + +
+ + +**13. Architecture of a traditional CNN ― Convolutional neural networks, also known as CNNs, are a specific type of neural networks that are generally composed of the following layers:** + +⟶ + +
+ + +**14. The convolution layer and the pooling layer can be fine-tuned with respect to hyperparameters that are described in the next sections.** + +⟶ + +
+ + +**15. Types of layer** + +⟶ 層のタイプ + +
+ + +**16. Convolution layer (CONV) ― The convolution layer (CONV) uses filters that perform convolution operations as it is scanning the input I with respect to its dimensions. Its hyperparameters include the filter size F and stride S. The resulting output O is called feature map or activation map.** + +⟶ + +
+ + +**17. Remark: the convolution step can be generalized to the 1D and 3D cases as well.** + +⟶ + +
+ + +**18. Pooling (POOL) ― The pooling layer (POOL) is a downsampling operation, typically applied after a convolution layer, which does some spatial invariance. In particular, max and average pooling are special kinds of pooling where the maximum and average value is taken, respectively.** + +⟶ + +
+ + +**19. [Type, Purpose, Illustration, Comments]** + +⟶ + +
+ + +**20. [Max pooling, Average pooling, Each pooling operation selects the maximum value of the current view, Each pooling operation averages the values of the current view]** + +⟶ + +
+ + +**21. [Preserves detected features, Most commonly used, Downsamples feature map, Used in LeNet]** + +⟶ + +
+ + +**22. Fully Connected (FC) ― The fully connected layer (FC) operates on a flattened input where each input is connected to all neurons. If present, FC layers are usually found towards the end of CNN architectures and can be used to optimize objectives such as class scores.** + +⟶ + +
+ + +**23. Filter hyperparameters** + +⟶ フィルタハイパーパラメータ + +
+ + +**24. The convolution layer contains filters for which it is important to know the meaning behind its hyperparameters.** + +⟶ + +
+ + +**25. Dimensions of a filter ― A filter of size F×F applied to an input containing C channels is a F×F×C volume that performs convolutions on an input of size I×I×C and produces an output feature map (also called activation map) of size O×O×1.** + +⟶ + +
+ + +**26. Filter** + +⟶ Filter + +
+ + +**27. Remark: the application of K filters of size F×F results in an output feature map of size O×O×K.** + +⟶ + +
+ + +**28. Stride ― For a convolutional or a pooling operation, the stride S denotes the number of pixels by which the window moves after each operation.** + +⟶ + +
+ + +**29. Zero-padding ― Zero-padding denotes the process of adding P zeroes to each side of the boundaries of the input. This value can either be manually specified or automatically set through one of the three modes detailed below:** + +⟶ + +
+ + +**30. [Mode, Value, Illustration, Purpose, Valid, Same, Full]** + +⟶ [モード, 値, Illustration, 目的, 有効, 同様, Full] + +
+ + +**31. [No padding, Drops last convolution if dimensions do not match, Padding such that feature map size has size ⌈IS⌉, Output size is mathematically convenient, Also called 'half' padding, Maximum padding such that end convolutions are applied on the limits of the input, Filter 'sees' the input end-to-end]** + +⟶ + +
+ + +**32. Tuning hyperparameters** + +⟶ + +
+ + +**33. Parameter compatibility in convolution layer ― By noting I the length of the input volume size, F the length of the filter, P the amount of zero padding, S the stride, then the output size O of the feature map along that dimension is given by:** + +⟶ + +
+ + +**34. [Input, Filter, Output]** + +⟶ [入力, フィルタ, 出力] + +
+ + +**35. Remark: often times, Pstart=Pend≜P, in which case we can replace Pstart+Pend by 2P in the formula above.** + +⟶ + +
+ + +**36. Understanding the complexity of the model ― In order to assess the complexity of a model, it is often useful to determine the number of parameters that its architecture will have. In a given layer of a convolutional neural network, it is done as follows:** + +⟶ + +
+ + +**37. [Illustration, Input size, Output size, Number of parameters, Remarks]** + +⟶ + +
+ + +**38. [One bias parameter per filter, In most cases, S + + +**39. [Pooling operation done channel-wise, In most cases, S=F]** + +⟶ + +
+ + +**40. [Input is flattened, One bias parameter per neuron, The number of FC neurons is free of structural constraints]** + +⟶ + +
+ + +**41. Receptive field ― The receptive field at layer k is the area denoted Rk×Rk of the input that each pixel of the k-th activation map can 'see'. By calling Fj the filter size of layer j and Si the stride value of layer i and with the convention S0=1, the receptive field at layer k can be computed with the formula:** + +⟶ + +
+ + +**42. In the example below, we have F1=F2=3 and S1=S2=1, which gives R2=1+2⋅1+2⋅1=5.** + +⟶ + +
+ + +**43. Commonly used activation functions** + +⟶ + +
+ + +**44. Rectified Linear Unit ― The rectified linear unit layer (ReLU) is an activation function g that is used on all elements of the volume. It aims at introducing non-linearities to the network. Its variants are summarized in the table below:** + +⟶ + +
+ + +**45. [ReLU, Leaky ReLU, ELU, with]** + +⟶ + +
+ + +**46. [Non-linearity complexities biologically interpretable, Addresses dying ReLU issue for negative values, Differentiable everywhere]** + +⟶ + +
+ + +**47. Softmax ― The softmax step can be seen as a generalized logistic function that takes as input a vector of scores x∈Rn and outputs a vector of output probability p∈Rn through a softmax function at the end of the architecture. It is defined as follows:** + +⟶ + +
+ + +**48. where** + +⟶ + +
+ + +**49. Object detection** + +⟶ + +
+ + +**50. Types of models ― There are 3 main types of object recognition algorithms, for which the nature of what is predicted is different. They are described in the table below:** + +⟶ + +
+ + +**51. [Image classification, Classification w. localization, Detection]** + +⟶ + +
+ + +**52. [Teddy bear, Book]** + +⟶ + +
+ + +**53. [Classifies a picture, Predicts probability of object, Detects an object in a picture, Predicts probability of object and where it is located, Detects up to several objects in a picture, Predicts probabilities of objects and where they are located]** + +⟶ + +
+ + +**54. [Traditional CNN, Simplified YOLO, R-CNN, YOLO, R-CNN]** + +⟶ + +
+ + +**55. Detection ― In the context of object detection, different methods are used depending on whether we just want to locate the object or detect a more complex shape in the image. The two main ones are summed up in the table below:** + +⟶ + +
+ + +**56. [Bounding box detection, Landmark detection]** + +⟶ + +
+ + +**57. [Detects the part of the image where the object is located, Detects a shape or characteristics of an object (e.g. eyes), More granular]** + +⟶ + +
+ + +**58. [Box of center (bx,by), height bh and width bw, Reference points (l1x,l1y), ..., (lnx,lny)]** + +⟶ + +
+ + +**59. Intersection over Union ― Intersection over Union, also known as IoU, is a function that quantifies how correctly positioned a predicted bounding box Bp is over the actual bounding box Ba. It is defined as:** + +⟶ + +
+ + +**60. Remark: we always have IoU∈[0,1]. By convention, a predicted bounding box Bp is considered as being reasonably good if IoU(Bp,Ba)⩾0.5.** + +⟶ + +
+ + +**61. Anchor boxes ― Anchor boxing is a technique used to predict overlapping bounding boxes. In practice, the network is allowed to predict more than one box simultaneously, where each box prediction is constrained to have a given set of geometrical properties. For instance, the first prediction can potentially be a rectangular box of a given form, while the second will be another rectangular box of a different geometrical form.** + +⟶ + +
+ + +**62. Non-max suppression ― The non-max suppression technique aims at removing duplicate overlapping bounding boxes of a same object by selecting the most representative ones. After having removed all boxes having a probability prediction lower than 0.6, the following steps are repeated while there are boxes remaining:** + +⟶ + +
+ + +**63. [For a given class, Step 1: Pick the box with the largest prediction probability., Step 2: Discard any box having an IoU⩾0.5 with the previous box.]** + +⟶ + +
+ + +**64. [Box predictions, Box selection of maximum probability, Overlap removal of same class, Final bounding boxes]** + +⟶ + +
+ + +**65. YOLO ― You Only Look Once (YOLO) is an object detection algorithm that performs the following steps:** + +⟶ + +
+ + +**66. [Step 1: Divide the input image into a G×G grid., Step 2: For each grid cell, run a CNN that predicts y of the following form:, repeated k times]** + +⟶ + +
+ + +**67. where pc is the probability of detecting an object, bx,by,bh,bw are the properties of the detected bouding box, c1,...,cp is a one-hot representation of which of the p classes were detected, and k is the number of anchor boxes.** + +⟶ + +
+ + +**68. Step 3: Run the non-max suppression algorithm to remove any potential duplicate overlapping bounding boxes.** + +⟶ + +
+ + +**69. [Original image, Division in GxG grid, Bounding box prediction, Non-max suppression]** + +⟶ + +
+ + +**70. Remark: when pc=0, then the network does not detect any object. In that case, the corresponding predictions bx,...,cp have to be ignored.** + +⟶ + +
+ + +**71. R-CNN ― Region with Convolutional Neural Networks (R-CNN) is an object detection algorithm that first segments the image to find potential relevant bounding boxes and then run the detection algorithm to find most probable objects in those bounding boxes.** + +⟶ + +
+ + +**72. [Original image, Segmentation, Bounding box prediction, Non-max suppression]** + +⟶ + +
+ + +**73. Remark: although the original algorithm is computationally expensive and slow, newer architectures enabled the algorithm to run faster, such as Fast R-CNN and Faster R-CNN.** + +⟶ + +
+ + +**74. Face verification and recognition** + +⟶ + +
+ + +**75. Types of models ― Two main types of model are summed up in table below:** + +⟶ + +
+ + +**76. [Face verification, Face recognition, Query, Reference, Database]** + +⟶ + +
+ + +**77. [Is this the correct person?, One-to-one lookup, Is this one of the K persons in the database?, One-to-many lookup]** + +⟶ + +
+ + +**78. One Shot Learning ― One Shot Learning is a face verification algorithm that uses a limited training set to learn a similarity function that quantifies how different two given images are. The similarity function applied to two images is often noted d(image 1,image 2).** + +⟶ + +
+ + +**79. Siamese Network ― Siamese Networks aim at learning how to encode images to then quantify how different two images are. For a given input image x(i), the encoded output is often noted as f(x(i)).** + +⟶ + +
+ + +**80. Triplet loss ― The triplet loss ℓ is a loss function computed on the embedding representation of a triplet of images A (anchor), P (positive) and N (negative). The anchor and the positive example belong to a same class, while the negative example to another one. By calling α∈R+ the margin parameter, this loss is defined as follows:** + +⟶ + +
+ + +**81. Neural style transfer** + +⟶ + +
+ + +**82. Motivation ― The goal of neural style transfer is to generate an image G based on a given content C and a given style S.** + +⟶ + +
+ + +**83. [Content C, Style S, Generated image G]** + +⟶ + +
+ + +**84. Activation ― In a given layer l, the activation is noted a[l] and is of dimensions nH×nw×nc** + +⟶ + +
+ + +**85. Content cost function ― The content cost function Jcontent(C,G) is used to determine how the generated image G differs from the original content image C. It is defined as follows:** + +⟶ + +
+ + +**86. Style matrix ― The style matrix G[l] of a given layer l is a Gram matrix where each of its elements G[l]kk′ quantifies how correlated the channels k and k′ are. It is defined with respect to activations a[l] as follows:** + +⟶ + +
+ + +**87. Remark: the style matrix for the style image and the generated image are noted G[l] (S) and G[l] (G) respectively.** + +⟶ + +
+ + +**88. Style cost function ― The style cost function Jstyle(S,G) is used to determine how the generated image G differs from the style S. It is defined as follows:** + +⟶ + +
+ + +**89. Overall cost function ― The overall cost function is defined as being a combination of the content and style cost functions, weighted by parameters α,β, as follows:** + +⟶ + +
+ + +**90. Remark: a higher value of α will make the model care more about the content while a higher value of β will make it care more about the style.** + +⟶ + +
+ + +**91. Architectures using computational tricks** + +⟶ + +
+ + +**92. Generative Adversarial Network ― Generative adversarial networks, also known as GANs, are composed of a generative and a discriminative model, where the generative model aims at generating the most truthful output that will be fed into the discriminative which aims at differentiating the generated and true image.** + +⟶ + +
+ + +**93. [Training, Noise, Real-world image, Generator, Discriminator, Real Fake]** + +⟶ + +
+ + +**94. Remark: use cases using variants of GANs include text to image, music generation and synthesis.** + +⟶ + +
+ + +**95. ResNet ― The Residual Network architecture (also called ResNet) uses residual blocks with a high number of layers meant to decrease the training error. The residual block has the following characterizing equation:** + +⟶ + +
+ + +**96. Inception Network ― This architecture uses inception modules and aims at giving a try at different convolutions in order to increase its performance through features diversification. In particular, it uses the 1×1 convolution trick to limit the computational burden.** + +⟶ + +
+ + +**97. The Deep Learning cheatsheets are now available in [target language].** + +⟶ + +
+ + +**98. Original authors** + +⟶ + +
+ + +**99. Translated by X, Y and Z** + +⟶ + +
+ + +**100. Reviewed by X, Y and Z** + +⟶ + +
+ + +**101. View PDF version on GitHub** + +⟶ + +
+ + +**102. By X and Y** + +⟶ + +
From 906bdd85ac4a0f53ec0b07771e1ccca9da017ad2 Mon Sep 17 00:00:00 2001 From: tt-anh-eole Date: Tue, 28 May 2019 18:19:10 +0900 Subject: [PATCH 02/23] [ja] Convolutional Neural Networks --- ja/convolutional-neural-networks.md | 18 +++++++++--------- 1 file changed, 9 insertions(+), 9 deletions(-) diff --git a/ja/convolutional-neural-networks.md b/ja/convolutional-neural-networks.md index 5f13a2577..71958fddd 100644 --- a/ja/convolutional-neural-networks.md +++ b/ja/convolutional-neural-networks.md @@ -179,7 +179,7 @@ **26. Filter** -⟶ Filter +⟶ フィルタ
@@ -207,7 +207,7 @@ **30. [Mode, Value, Illustration, Purpose, Valid, Same, Full]** -⟶ [モード, 値, Illustration, 目的, 有効, 同様, Full] +⟶ [モード, 値, 図, 目的, 有効, 同様, フル]
@@ -221,7 +221,7 @@ **32. Tuning hyperparameters** -⟶ +⟶ 調律ハイパーパラメータ
@@ -256,7 +256,7 @@ **37. [Illustration, Input size, Output size, Number of parameters, Remarks]** -⟶ +⟶ [図、入力サイズ、出力サイズ、引数の数、備考]
@@ -648,7 +648,7 @@ **93. [Training, Noise, Real-world image, Generator, Discriminator, Real Fake]** -⟶ +⟶ [トレーニング、騒音、現実世界の画像、ジェネレータ、弁別器、偽のリアル]
@@ -683,21 +683,21 @@ **98. Original authors** -⟶ +⟶ 原著者
**99. Translated by X, Y and Z** -⟶ +⟶ X、Y、Zによる翻訳された
**100. Reviewed by X, Y and Z** -⟶ +⟶ X、Y、Zによるレビューされた
@@ -711,6 +711,6 @@ **102. By X and Y** -⟶ +⟶ X、yによる
From 39d490efa848f4e207c9e6c3cdf8c77e8cc89c57 Mon Sep 17 00:00:00 2001 From: tuananhhedspibk Date: Tue, 28 May 2019 23:40:34 +0900 Subject: [PATCH 03/23] Update japanese translating --- ja/convolutional-neural-networks.md | 32 ++++++++++++++--------------- 1 file changed, 16 insertions(+), 16 deletions(-) diff --git a/ja/convolutional-neural-networks.md b/ja/convolutional-neural-networks.md index 71958fddd..2d32c799b 100644 --- a/ja/convolutional-neural-networks.md +++ b/ja/convolutional-neural-networks.md @@ -39,7 +39,7 @@ **6. [Tuning hyperparameters, Parameter compatibility, Model complexity, Receptive field]** -⟶ +⟶ [調律ハイパーパラメータ、パラメータの互換性、モデルの複雑、受容的なフィールド]
@@ -60,14 +60,14 @@ **9. [Face verification/recognition, One shot learning, Siamese network, Triplet loss]** -⟶ +⟶ [顔認証/認識、一発学習、シャムネットワーク、トリプレット損失]
**10. [Neural style transfer, Activation, Style matrix, Style/content cost function]** -⟶ +⟶ [神経スタイル転送、活性化、スタイル行列、スタイル/コンテンツコスト関数]
@@ -88,14 +88,14 @@ **13. Architecture of a traditional CNN ― Convolutional neural networks, also known as CNNs, are a specific type of neural networks that are generally composed of the following layers:** -⟶ +⟶ 伝統的な畳み込み神経の網のアーキテクチャ - CNNとも知られる畳み込み神経の網は一般的に次の層で構成されている特定タイプの神経の網です。
**14. The convolution layer and the pooling layer can be fine-tuned with respect to hyperparameters that are described in the next sections.** -⟶ +⟶ 畳み込み層とプール層は次のセクションで説明されるハイパーパラメータに関して微調整されられる。
@@ -116,7 +116,7 @@ **17. Remark: the convolution step can be generalized to the 1D and 3D cases as well.** -⟶ +⟶ 注意: 畳み込みステップは1D及び3Dの場合にも一般化されられる。
@@ -130,7 +130,7 @@ **19. [Type, Purpose, Illustration, Comments]** -⟶ +⟶ [タイプ、目的、図、コメント]
@@ -165,7 +165,7 @@ **24. The convolution layer contains filters for which it is important to know the meaning behind its hyperparameters.** -⟶ +⟶
@@ -207,7 +207,7 @@ **30. [Mode, Value, Illustration, Purpose, Valid, Same, Full]** -⟶ [モード, 値, 図, 目的, 有効, 同様, フル] +⟶ [モード、値、図、目的、有効、同様、フル]
@@ -235,7 +235,7 @@ **34. [Input, Filter, Output]** -⟶ [入力, フィルタ, 出力] +⟶ [入力、フィルタ、出力]
@@ -333,14 +333,14 @@ **48. where** -⟶ +⟶ どこ
**49. Object detection** -⟶ +⟶ オブジェクト検出
@@ -375,7 +375,7 @@ **54. [Traditional CNN, Simplified YOLO, R-CNN, YOLO, R-CNN]** -⟶ +⟶ [伝統的なCNN、単純されたYOLO、R-CNN、YOLO、R-CNN]
@@ -515,7 +515,7 @@ **74. Face verification and recognition** -⟶ +⟶ 顔認証及び認識
@@ -529,7 +529,7 @@ **76. [Face verification, Face recognition, Query, Reference, Database]** -⟶ +⟶ [顔認証、顔認識、クエリ、参照、データベース]
@@ -711,6 +711,6 @@ **102. By X and Y** -⟶ X、yによる +⟶ X、Yによる
From 262760fb846cd3964d3dc294cedae7d64b4044f7 Mon Sep 17 00:00:00 2001 From: tt-anh-eole Date: Wed, 29 May 2019 12:05:33 +0900 Subject: [PATCH 04/23] [ja] Convolutional Neural Networks --- ja/convolutional-neural-networks.md | 16 ++++++++-------- 1 file changed, 8 insertions(+), 8 deletions(-) diff --git a/ja/convolutional-neural-networks.md b/ja/convolutional-neural-networks.md index 2d32c799b..0f06518d1 100644 --- a/ja/convolutional-neural-networks.md +++ b/ja/convolutional-neural-networks.md @@ -74,7 +74,7 @@ **11. [Computational trick architectures, Generative Adversarial Net, ResNet, Inception Network]** -⟶ +⟶ [計算詭計アーキテクチャ、生成型敵対的ネットワーク、ResNet、インセプションネットワーク]
@@ -524,7 +524,7 @@ ⟶ -
+
モデルのタイプ - 主な二つのモデルは次の表で要約される: **76. [Face verification, Face recognition, Query, Reference, Database]** @@ -564,7 +564,7 @@ **81. Neural style transfer** -⟶ +⟶ 神経のスタイル転送
@@ -578,7 +578,7 @@ **83. [Content C, Style S, Generated image G]** -⟶ +⟶ [コンテンツC、スタイルS、生成された画像G]
@@ -634,7 +634,7 @@ **91. Architectures using computational tricks** -⟶ +⟶ アーキテクチャは計算の詭計を利用している。
@@ -655,7 +655,7 @@ **94. Remark: use cases using variants of GANs include text to image, music generation and synthesis.** -⟶ +⟶ 注意: GANsの変種を使用するユースケースには画像へのテキスト、音楽生成及び合成があります。
@@ -678,7 +678,7 @@ ⟶ -
+
深層学習チートシートは今[ターゲット言語]で利用可能です。 **98. Original authors** @@ -706,7 +706,7 @@ ⟶ -
+
GithubでPDFバージョン見る **102. By X and Y** From 9ec3c962d27e3c4fe2c3cce85529beb11006a007 Mon Sep 17 00:00:00 2001 From: tt-anh-eole Date: Wed, 29 May 2019 16:39:07 +0900 Subject: [PATCH 05/23] [ja] Convolutional Neural Networks --- ja/convolutional-neural-networks.md | 62 ++++++++++++++--------------- 1 file changed, 31 insertions(+), 31 deletions(-) diff --git a/ja/convolutional-neural-networks.md b/ja/convolutional-neural-networks.md index 0f06518d1..0e9d0794f 100644 --- a/ja/convolutional-neural-networks.md +++ b/ja/convolutional-neural-networks.md @@ -18,14 +18,14 @@ **3. [Overview, Architecture structure]** -⟶ [概要、アーキテクチャ構造] +⟶ [概要, アーキテクチャ構造]
**4. [Types of layer, Convolution, Pooling, Fully connected]** -⟶ [層のタイプ、畳み込み、プーリング、完全に接続された] +⟶ [層のタイプ, 畳み込み, プーリング, 完全に接続された]
@@ -34,47 +34,47 @@ ⟶ -
[フィルタハイパーパラメータ、寸法、ストライド、詰め物] +
[フィルタハイパーパラメータ, 寸法, ストライド, 詰め物] **6. [Tuning hyperparameters, Parameter compatibility, Model complexity, Receptive field]** -⟶ [調律ハイパーパラメータ、パラメータの互換性、モデルの複雑、受容的なフィールド] +⟶ [調律ハイパーパラメータ, パラメータの互換性, モデルの複雑, 受容的なフィールド]
**7. [Activation functions, Rectified Linear Unit, Softmax]** -⟶ [活性化関数、修正済み線形単位、ソフトマックス] +⟶ [活性化関数, 修正済み線形単位, ソフトマックス]
**8. [Object detection, Types of models, Detection, Intersection over Union, Non-max suppression, YOLO, R-CNN]** -⟶ [オブジェクト検出、モデルのタイプ、検出、組合の上の交差点、非最大抑制、YOLO、R-CNN] +⟶ [オブジェクト検出, モデルのタイプ, 検出, 組合の上の交差点, 非最大抑制, YOLO, R-CNN]
**9. [Face verification/recognition, One shot learning, Siamese network, Triplet loss]** -⟶ [顔認証/認識、一発学習、シャムネットワーク、トリプレット損失] +⟶ [顔認証/認識, 一発学習, シャムネットワーク, トリプレット損失]
**10. [Neural style transfer, Activation, Style matrix, Style/content cost function]** -⟶ [神経スタイル転送、活性化、スタイル行列、スタイル/コンテンツコスト関数] +⟶ [神経スタイル転送, 活性化, スタイル行列, スタイル/コンテンツコスト関数]
**11. [Computational trick architectures, Generative Adversarial Net, ResNet, Inception Network]** -⟶ [計算詭計アーキテクチャ、生成型敵対的ネットワーク、ResNet、インセプションネットワーク] +⟶ [計算詭計アーキテクチャ, 生成型敵対的ネットワーク, ResNet, インセプションネットワーク]
@@ -109,7 +109,7 @@ **16. Convolution layer (CONV) ― The convolution layer (CONV) uses filters that perform convolution operations as it is scanning the input I with respect to its dimensions. Its hyperparameters include the filter size F and stride S. The resulting output O is called feature map or activation map.** -⟶ +⟶ 畳み込み層 (CONV) - 畳み込み層 (CONV)は入力Iを寸法に関して走査している時畳み込みオペレーションズを行うフィルタを使用する。畳み込み層のハイパーパラメータにはフィルタサイズFとストライドSが含まれる。結果出力0は特徴図及び活性化図で呼ばれる。
@@ -123,21 +123,21 @@ **18. Pooling (POOL) ― The pooling layer (POOL) is a downsampling operation, typically applied after a convolution layer, which does some spatial invariance. In particular, max and average pooling are special kinds of pooling where the maximum and average value is taken, respectively.** -⟶ +⟶ プーリング (POOL) - プール層 (POOL)はダウンサンプリング操作で、通常は空間的に不変な畳み込み層の後に適用される。特に、最大及び平均プーリングはそれぞれ最大と平均値が取られる特別な種類のプールです。
**19. [Type, Purpose, Illustration, Comments]** -⟶ [タイプ、目的、図、コメント] +⟶ [タイプ, 目的, 図, コメント]
**20. [Max pooling, Average pooling, Each pooling operation selects the maximum value of the current view, Each pooling operation averages the values of the current view]** -⟶ +⟶ [最大プール, 平均プール, 各プール操作は現在ビューの最大値を選ぶ, 各プール操作は現在ビューの値を平均する]
@@ -207,7 +207,7 @@ **30. [Mode, Value, Illustration, Purpose, Valid, Same, Full]** -⟶ [モード、値、図、目的、有効、同様、フル] +⟶ [モード, 値, 図, 目的, 有効, 同様, フル]
@@ -235,7 +235,7 @@ **34. [Input, Filter, Output]** -⟶ [入力、フィルタ、出力] +⟶ [入力, フィルタ, 出力]
@@ -256,7 +256,7 @@ **37. [Illustration, Input size, Output size, Number of parameters, Remarks]** -⟶ [図、入力サイズ、出力サイズ、引数の数、備考] +⟶ [図, 入力サイズ, 出力サイズ, 引数の数, 備考]
@@ -298,7 +298,7 @@ **43. Commonly used activation functions** -⟶ +⟶ よく使われる活性化関数
@@ -312,7 +312,7 @@ **45. [ReLU, Leaky ReLU, ELU, with]** -⟶ +⟶[ReLU, Leaky ReLU, ELU, with]
@@ -354,14 +354,14 @@ **51. [Image classification, Classification w. localization, Detection]** -⟶ +⟶ [画像分類, 分類 w. ]
**52. [Teddy bear, Book]** -⟶ +⟶ [テディ熊, 本]
@@ -375,7 +375,7 @@ **54. [Traditional CNN, Simplified YOLO, R-CNN, YOLO, R-CNN]** -⟶ [伝統的なCNN、単純されたYOLO、R-CNN、YOLO、R-CNN] +⟶ [伝統的なCNN, 単純されたYOLO, R-CNN, YOLO, R-CNN]
@@ -389,7 +389,7 @@ **56. [Bounding box detection, Landmark detection]** -⟶ +⟶ [物体検出, ランドマーク検出]
@@ -452,7 +452,7 @@ **65. YOLO ― You Only Look Once (YOLO) is an object detection algorithm that performs the following steps:** -⟶ +⟶ YOLO - 貴方は一度だけ見る (YOLO)は次のステップを実行するオブジェクト検出アルゴリズムです。
@@ -501,7 +501,7 @@ **72. [Original image, Segmentation, Bounding box prediction, Non-max suppression]** -⟶ +⟶ [原画像, セグメンテーション, 物体予測, 非最大抑制]
@@ -529,7 +529,7 @@ **76. [Face verification, Face recognition, Query, Reference, Database]** -⟶ [顔認証、顔認識、クエリ、参照、データベース] +⟶ [顔認証, 顔認識, クエリ, 参照, データベース]
@@ -578,7 +578,7 @@ **83. [Content C, Style S, Generated image G]** -⟶ [コンテンツC、スタイルS、生成された画像G] +⟶ [コンテンツC, スタイルS, 生成された画像G]
@@ -648,14 +648,14 @@ **93. [Training, Noise, Real-world image, Generator, Discriminator, Real Fake]** -⟶ [トレーニング、騒音、現実世界の画像、ジェネレータ、弁別器、偽のリアル] +⟶ [トレーニング, 騒音, 現実世界の画像, ジェネレータ, 弁別器, 偽のリアル]
**94. Remark: use cases using variants of GANs include text to image, music generation and synthesis.** -⟶ 注意: GANsの変種を使用するユースケースには画像へのテキスト、音楽生成及び合成があります。 +⟶ 注意: GANsの変種を使用するユースケースには画像へのテキスト, 音楽生成及び合成があります。
@@ -690,14 +690,14 @@ **99. Translated by X, Y and Z** -⟶ X、Y、Zによる翻訳された +⟶ X, Y, Zによる翻訳された
**100. Reviewed by X, Y and Z** -⟶ X、Y、Zによるレビューされた +⟶ X, Y, Zによるレビューされた
@@ -711,6 +711,6 @@ **102. By X and Y** -⟶ X、Yによる +⟶ X, Yによる
From d2f4b9c48dc475aa7fd05e92fe1e15792838c442 Mon Sep 17 00:00:00 2001 From: tt-anh-eole Date: Wed, 29 May 2019 18:29:27 +0900 Subject: [PATCH 06/23] [ja] Convolutional Neural Networks --- ja/convolutional-neural-networks.md | 8 ++++---- 1 file changed, 4 insertions(+), 4 deletions(-) diff --git a/ja/convolutional-neural-networks.md b/ja/convolutional-neural-networks.md index 0e9d0794f..35644f122 100644 --- a/ja/convolutional-neural-networks.md +++ b/ja/convolutional-neural-networks.md @@ -25,7 +25,7 @@ **4. [Types of layer, Convolution, Pooling, Fully connected]** -⟶ [層のタイプ, 畳み込み, プーリング, 完全に接続された] +⟶ [層のタイプ, 畳み込み, プーリング, 完全接続]
@@ -144,14 +144,14 @@ **21. [Preserves detected features, Most commonly used, Downsamples feature map, Used in LeNet]** -⟶ +⟶ [検出された特徴保持, 最も一般的に利用される, ダウンサンプル特徴図, LeNetで利用される]
**22. Fully Connected (FC) ― The fully connected layer (FC) operates on a flattened input where each input is connected to all neurons. If present, FC layers are usually found towards the end of CNN architectures and can be used to optimize objectives such as class scores.** -⟶ +⟶ 完全接続 (FC) - 完全接続層は各入力は全ての神経に接続されているフラット化入力で動く。
@@ -368,7 +368,7 @@ **53. [Classifies a picture, Predicts probability of object, Detects an object in a picture, Predicts probability of object and where it is located, Detects up to several objects in a picture, Predicts probabilities of objects and where they are located]** -⟶ +⟶ [画像分類, オブジェクトの確率予測, 画像内のオブジェクト検出, オブジェクトの確率と所在地予測, 画像内の複数オブジェクト検出, 複数オブジェクトの確率と所在地予測]
From 10e7f29e91b78652d2982769211dc836c45fd520 Mon Sep 17 00:00:00 2001 From: tt-anh-eole Date: Thu, 30 May 2019 16:45:36 +0900 Subject: [PATCH 07/23] [ja] Convolutional Neural Networks --- ja/convolutional-neural-networks.md | 14 +++++++------- 1 file changed, 7 insertions(+), 7 deletions(-) diff --git a/ja/convolutional-neural-networks.md b/ja/convolutional-neural-networks.md index 35644f122..919efe74b 100644 --- a/ja/convolutional-neural-networks.md +++ b/ja/convolutional-neural-networks.md @@ -151,7 +151,7 @@ **22. Fully Connected (FC) ― The fully connected layer (FC) operates on a flattened input where each input is connected to all neurons. If present, FC layers are usually found towards the end of CNN architectures and can be used to optimize objectives such as class scores.** -⟶ 完全接続 (FC) - 完全接続層は各入力は全ての神経に接続されているフラット化入力で動く。 +⟶ 完全接続 (FC) - 完全接続層は各入力は全ての神経に接続されているフラット化入力で動く。存在する場合、FC層は通常CNNアーキテクチャの終わりに向かって見られ、クラススコアなどの目的を最適化するため利用される。
@@ -263,7 +263,7 @@ **38. [One bias parameter per filter, In most cases, S @@ -349,7 +349,7 @@ ⟶ -
+
モデルの種類 - 物体認識アルゴリズムは主に三つのタイプがあり、予測されるものの性質は異なります。次の表で説明される。 **51. [Image classification, Classification w. localization, Detection]** @@ -382,7 +382,7 @@ **55. Detection ― In the context of object detection, different methods are used depending on whether we just want to locate the object or detect a more complex shape in the image. The two main ones are summed up in the table below:** -⟶ +⟶ 検出 - 物体検出の文脈では、画像内で物体を特定するのかそれとも複雑な形状を検出するのかによって、様々な方法は使用される。二つの主なものは次の表でまとめられる。
@@ -480,7 +480,7 @@ **69. [Original image, Division in GxG grid, Bounding box prediction, Non-max suppression]** -⟶ +⟶ [原画像, GxGグリッドでの分割, 物体検出, 非最大抑制]
@@ -508,8 +508,8 @@ **73. Remark: although the original algorithm is computationally expensive and slow, newer architectures enabled the algorithm to run faster, such as Fast R-CNN and Faster R-CNN.** -⟶ - +⟶ 注意: 原アルゴリズムは計算コストが高くて遅くても、より新たなアーキテクチャでは、 +Fast R-CNNやFaster R-CNNなど、アルゴリズムをより高い速度に実行できる。
From 68cb3af84d6fb83c8814ff92d92c79d9705769b3 Mon Sep 17 00:00:00 2001 From: tuananhhedspibk Date: Thu, 30 May 2019 23:09:20 +0900 Subject: [PATCH 08/23] [ja] Convolutional Neural Network --- ja/convolutional-neural-networks.md | 6 +++--- 1 file changed, 3 insertions(+), 3 deletions(-) diff --git a/ja/convolutional-neural-networks.md b/ja/convolutional-neural-networks.md index 919efe74b..27c9d3f23 100644 --- a/ja/convolutional-neural-networks.md +++ b/ja/convolutional-neural-networks.md @@ -550,7 +550,7 @@ Fast R-CNNやFaster R-CNNなど、アルゴリズムをより高い速度に実 **79. Siamese Network ― Siamese Networks aim at learning how to encode images to then quantify how different two images are. For a given input image x(i), the encoded output is often noted as f(x(i)).** -⟶ +⟶ シャムネットワー - シャムネットワーは2つの画像の違いを定量化して、画像暗号化方法を学ぶことを目的としている。与えられたインプット画像x(i)に対して暗号化された出力はしばしばf(x(i))と表示される。
@@ -573,7 +573,7 @@ Fast R-CNNやFaster R-CNNなど、アルゴリズムをより高い速度に実 ⟶ -
+
モチベーション - 神経のスタイル転送の目的は与えられたコンテンツCとスタイルSに基づく画像Gを生成する。 **83. [Content C, Style S, Generated image G]** @@ -587,7 +587,7 @@ Fast R-CNNやFaster R-CNNなど、アルゴリズムをより高い速度に実 ⟶ -
+
活性化 - 与えられた層Lで、活性化はa[l]と表示されて、nH×nw×ncの寸法。 **85. Content cost function ― The content cost function Jcontent(C,G) is used to determine how the generated image G differs from the original content image C. It is defined as follows:** From a2916e74acdcbebfc65791822eb07368a2a5be4a Mon Sep 17 00:00:00 2001 From: tt-anh-eole Date: Fri, 31 May 2019 16:44:20 +0900 Subject: [PATCH 09/23] [ja] Convolutional Neural Networks --- ja/convolutional-neural-networks.md | 20 ++++++++++---------- 1 file changed, 10 insertions(+), 10 deletions(-) diff --git a/ja/convolutional-neural-networks.md b/ja/convolutional-neural-networks.md index 27c9d3f23..fbcab4103 100644 --- a/ja/convolutional-neural-networks.md +++ b/ja/convolutional-neural-networks.md @@ -165,7 +165,7 @@ **24. The convolution layer contains filters for which it is important to know the meaning behind its hyperparameters.** -⟶ +⟶ 畳み込み層にはハイパーパラメータの背後にある意味を知ることが重要なフィルタが含まれる。
@@ -193,7 +193,7 @@ **28. Stride ― For a convolutional or a pooling operation, the stride S denotes the number of pixels by which the window moves after each operation.** -⟶ +⟶ ストライド - 畳み込みまたはプール操作に対して、ストライドSはそれぞれの操作の後にウィンドウに移動されるピクセル数を表示する。
@@ -242,7 +242,7 @@ **35. Remark: often times, Pstart=Pend≜P, in which case we can replace Pstart+Pend by 2P in the formula above.** -⟶ +⟶ 注意: しばしば、Pstart=Pend≜P、その場合、上記の式のようにPstart+Pendを2Pに置き換える事ができる。
@@ -270,7 +270,7 @@ **39. [Pooling operation done channel-wise, In most cases, S=F]** -⟶ +⟶ [プール操作はチャネルごとに行われる, ほとんどの場合, S=F]
@@ -291,7 +291,7 @@ **42. In the example below, we have F1=F2=3 and S1=S2=1, which gives R2=1+2⋅1+2⋅1=5.** -⟶ +⟶ 下記の例で、F1=F2=3、S1=S2=1となるのでR2=1+2⋅1+2⋅1=5となる。
@@ -319,14 +319,14 @@ **46. [Non-linearity complexities biologically interpretable, Addresses dying ReLU issue for negative values, Differentiable everywhere]** -⟶ +⟶
**47. Softmax ― The softmax step can be seen as a generalized logistic function that takes as input a vector of scores x∈Rn and outputs a vector of output probability p∈Rn through a softmax function at the end of the architecture. It is defined as follows:** -⟶ +⟶ ソフトマックス - ソフトマックスステップは入力としてx∈Rnスコアのベクターを取り、アーキテクチャの最後にソフトマックス関数を通じてp∈Rn出力確率のベクターを出して、一般化ロジスティック関数として見る事ができる。
@@ -396,7 +396,7 @@ **57. [Detects the part of the image where the object is located, Detects a shape or characteristics of an object (e.g. eyes), More granular]** -⟶ +⟶ [物体が配置されている画像の部分検出, (例: 目)物体の特徴または形状検出, より粒状]
@@ -445,7 +445,7 @@ **64. [Box predictions, Box selection of maximum probability, Overlap removal of same class, Final bounding boxes]** -⟶ +⟶ [ボックス予測, 最大確率のボックス選択, 同じクラスの重なり合う除去, 最後のバウンディングボックス]
@@ -459,7 +459,7 @@ **66. [Step 1: Divide the input image into a G×G grid., Step 2: For each grid cell, run a CNN that predicts y of the following form:, repeated k times]** -⟶ +⟶ [ステップ1: 入力画像をGxGグリッドに分ける。, ステップ2: ]
From 7d0ce941b76905f7b54e926a7c8ea0f5764f4c89 Mon Sep 17 00:00:00 2001 From: tuananhhedspibk Date: Fri, 31 May 2019 23:12:21 +0900 Subject: [PATCH 10/23] [ja] Convolutional Neural Network --- ja/convolutional-neural-networks.md | 14 +++++++------- 1 file changed, 7 insertions(+), 7 deletions(-) diff --git a/ja/convolutional-neural-networks.md b/ja/convolutional-neural-networks.md index fbcab4103..58ae9df33 100644 --- a/ja/convolutional-neural-networks.md +++ b/ja/convolutional-neural-networks.md @@ -354,7 +354,7 @@ **51. [Image classification, Classification w. localization, Detection]** -⟶ [画像分類, 分類 w. ] +⟶ [画像分類, 分類 w. 局地化, 検出]
@@ -403,7 +403,7 @@ **58. [Box of center (bx,by), height bh and width bw, Reference points (l1x,l1y), ..., (lnx,lny)]** -⟶ +⟶ [センターのボックス(bx, by), 縦bhと幅bw, 各参照ポイント (l1x,l1y), ..., (lnx,lny)]
@@ -438,7 +438,7 @@ **63. [For a given class, Step 1: Pick the box with the largest prediction probability., Step 2: Discard any box having an IoU⩾0.5 with the previous box.]** -⟶ +⟶ [与えられたクラス, ステップ1: 最大予測確率があるボックスを取り。, ステップ2: 前のボックスと一緒にIoU⩾0.5のボックスを切り捨てる。]
@@ -459,21 +459,21 @@ **66. [Step 1: Divide the input image into a G×G grid., Step 2: For each grid cell, run a CNN that predicts y of the following form:, repeated k times]** -⟶ [ステップ1: 入力画像をGxGグリッドに分ける。, ステップ2: ] +⟶ [ステップ1: 入力画像をGxGグリッドに分ける。, ステップ2: 各グリッドセルに対して次の形式のyを予測するCNNを実行する:,k回繰り返す]
**67. where pc is the probability of detecting an object, bx,by,bh,bw are the properties of the detected bouding box, c1,...,cp is a one-hot representation of which of the p classes were detected, and k is the number of anchor boxes.** -⟶ +⟶ ここで、pcは物体認識の確率、bx,by,bh,bwはバウンディングボックスのプロパーティ、c1, ..., cpはpクラスのうちどれが検出されたかのワンホット表現です。
**68. Step 3: Run the non-max suppression algorithm to remove any potential duplicate overlapping bounding boxes.** -⟶ +⟶ 潜在的な重複バウンディングボックスを除去する為に非最大抑制アルゴリズムを実行する。
@@ -613,7 +613,7 @@ Fast R-CNNやFaster R-CNNなど、アルゴリズムをより高い速度に実 **88. Style cost function ― The style cost function Jstyle(S,G) is used to determine how the generated image G differs from the style S. It is defined as follows:** -⟶ +⟶ スタイルコスト関数 - スタイルコスト関数Jstyle(S,G)はスタイルSと生成された画像Gどう違うかを決定する為利用される。次のように定義される:
From 59b83f605ebbeab523e55ab66039329b49257b71 Mon Sep 17 00:00:00 2001 From: tuananhhedspibk Date: Sun, 2 Jun 2019 15:10:32 +0900 Subject: [PATCH 11/23] [ja] Convolutional Neural Networks --- ja/convolutional-neural-networks.md | 15 ++++++++------- 1 file changed, 8 insertions(+), 7 deletions(-) diff --git a/ja/convolutional-neural-networks.md b/ja/convolutional-neural-networks.md index 58ae9df33..2120cde5d 100644 --- a/ja/convolutional-neural-networks.md +++ b/ja/convolutional-neural-networks.md @@ -172,7 +172,8 @@ **25. Dimensions of a filter ― A filter of size F×F applied to an input containing C channels is a F×F×C volume that performs convolutions on an input of size I×I×C and produces an output feature map (also called activation map) of size O×O×1.** -⟶ +⟶ フィルタの寸法 - Cチャネルを含まれている入力に適用されるFxFサイズのフィルタは0x0x1サイズの出力特徴図(活性化マップとも呼ばれている)を作り出し、IxIxCサイズの入力に対して畳み込みを実施するFxFxCボリュームです。 +
@@ -186,7 +187,7 @@ **27. Remark: the application of K filters of size F×F results in an output feature map of size O×O×K.** -⟶ +⟶ 注意: FxFサイズのK個別のフィルタを適用すると、0x0xKサイズの出力特徴図を得られる。
@@ -277,7 +278,7 @@ **40. [Input is flattened, One bias parameter per neuron, The number of FC neurons is free of structural constraints]** -⟶ +⟶ [入力は平坦化される, ニューラルごとにひとつのバイアスパラメータ, FCニューラルの数は構造制約がない]
@@ -431,7 +432,7 @@ **62. Non-max suppression ― The non-max suppression technique aims at removing duplicate overlapping bounding boxes of a same object by selecting the most representative ones. After having removed all boxes having a probability prediction lower than 0.6, the following steps are repeated while there are boxes remaining:** -⟶ +⟶ 非最大抑制 - 非最大抑制技術のねらいは最も代表的なもの選択によって同物体の重複する重なり合う境界ボックスを除去することです。
@@ -599,14 +600,14 @@ Fast R-CNNやFaster R-CNNなど、アルゴリズムをより高い速度に実 **86. Style matrix ― The style matrix G[l] of a given layer l is a Gram matrix where each of its elements G[l]kk′ quantifies how correlated the channels k and k′ are. It is defined with respect to activations a[l] as follows:** -⟶ +⟶ スタイル行列 - 与えられた層lのスタイル行列 G[l]はグラム配列で、各要素G[l]kk′がチャネルkとk′の相関関係を定量化する。
**87. Remark: the style matrix for the style image and the generated image are noted G[l] (S) and G[l] (G) respectively.** -⟶ +⟶ 注意: スタイル画像及び生成された画像に対するスタイル行列はそれぞれG[l] (S)、G[l] (G)と表示される。
@@ -627,7 +628,7 @@ Fast R-CNNやFaster R-CNNなど、アルゴリズムをより高い速度に実 **90. Remark: a higher value of α will make the model care more about the content while a higher value of β will make it care more about the style.** -⟶ +⟶ 注意: αのより高い値はモデルが内容をより気にするようにさせ、βのより高い値はスタイルをより気にするようになる。
From 60014627763a8cc5d28bdd85e4d4f10436813b76 Mon Sep 17 00:00:00 2001 From: tuananhhedspibk Date: Sun, 2 Jun 2019 23:07:22 +0900 Subject: [PATCH 12/23] [ja] Convolutional Neural Networks --- ja/convolutional-neural-networks.md | 10 +++++----- 1 file changed, 5 insertions(+), 5 deletions(-) diff --git a/ja/convolutional-neural-networks.md b/ja/convolutional-neural-networks.md index 2120cde5d..931a029e7 100644 --- a/ja/convolutional-neural-networks.md +++ b/ja/convolutional-neural-networks.md @@ -172,7 +172,7 @@ **25. Dimensions of a filter ― A filter of size F×F applied to an input containing C channels is a F×F×C volume that performs convolutions on an input of size I×I×C and produces an output feature map (also called activation map) of size O×O×1.** -⟶ フィルタの寸法 - Cチャネルを含まれている入力に適用されるFxFサイズのフィルタは0x0x1サイズの出力特徴図(活性化マップとも呼ばれている)を作り出し、IxIxCサイズの入力に対して畳み込みを実施するFxFxCボリュームです。 +⟶ フィルタの寸法 - C個別のチャネルを含む入力に適用されるFxFサイズのフィルタは0x0x1サイズの出力特徴図(活性化マップとも呼ばれている)を作り出し、IxIxCサイズの入力に対して畳み込みを実施するFxFxCボリュームです。
@@ -201,7 +201,7 @@ **29. Zero-padding ― Zero-padding denotes the process of adding P zeroes to each side of the boundaries of the input. This value can either be manually specified or automatically set through one of the three modes detailed below:** -⟶ +⟶ ゼロパディング - ゼロパディングは入力の境界線の各側にP個別のゼロ追加プロセスを表す。この値は手動で指定されることも、以下に詳述する3つのモードのいずれを通じて自動的に設定されることもできる。
@@ -215,7 +215,7 @@ **31. [No padding, Drops last convolution if dimensions do not match, Padding such that feature map size has size ⌈IS⌉, Output size is mathematically convenient, Also called 'half' padding, Maximum padding such that end convolutions are applied on the limits of the input, Filter 'sees' the input end-to-end]** -⟶ +⟶ [パディングなし, もし寸法が一致しなかったら最後の畳み込みを落とす, 特徴図のサイズが[IS]サイズになるようなパディング, 出力サイズは数学的に便利です, ハーフパディングとも呼ばれる, 入力の限界に端部畳み込みが適用されるような最大パディング, フィルタはエンドツーエンド入力を観察する]
@@ -432,7 +432,7 @@ **62. Non-max suppression ― The non-max suppression technique aims at removing duplicate overlapping bounding boxes of a same object by selecting the most representative ones. After having removed all boxes having a probability prediction lower than 0.6, the following steps are repeated while there are boxes remaining:** -⟶ 非最大抑制 - 非最大抑制技術のねらいは最も代表的なもの選択によって同物体の重複する重なり合う境界ボックスを除去することです。 +⟶ 非最大抑制 - 非最大抑制技術のねらいは最も代表的なもの選択によって同物体の重複する重なり合う境界ボックスを除去することです。0.6未満予測確率があるボックスを全て除去した後、残りのボックスがある間に以下のステップが繰り返される。
@@ -467,7 +467,7 @@ **67. where pc is the probability of detecting an object, bx,by,bh,bw are the properties of the detected bouding box, c1,...,cp is a one-hot representation of which of the p classes were detected, and k is the number of anchor boxes.** -⟶ ここで、pcは物体認識の確率、bx,by,bh,bwはバウンディングボックスのプロパーティ、c1, ..., cpはpクラスのうちどれが検出されたかのワンホット表現です。 +⟶ ここで、pcは物体認識の確率、bx,by,bh,bwはバウンディングボックスのプロパーティ、c1, ..., cpはpクラスのうちどれが検出されたかのワンホット表現で、kはアンカーボックスの数です。
From 67cab5ad4253f13213944f4c180a01511ce664e9 Mon Sep 17 00:00:00 2001 From: tt-anh-eole Date: Mon, 3 Jun 2019 16:11:49 +0900 Subject: [PATCH 13/23] [ja] Convolutional Neural Networks --- ja/convolutional-neural-networks.md | 22 +++++++++++----------- 1 file changed, 11 insertions(+), 11 deletions(-) diff --git a/ja/convolutional-neural-networks.md b/ja/convolutional-neural-networks.md index 931a029e7..138994a3d 100644 --- a/ja/convolutional-neural-networks.md +++ b/ja/convolutional-neural-networks.md @@ -229,7 +229,7 @@ **33. Parameter compatibility in convolution layer ― By noting I the length of the input volume size, F the length of the filter, P the amount of zero padding, S the stride, then the output size O of the feature map along that dimension is given by:** -⟶ +⟶ 畳み込み層内のパラメータ互換性 - Iを入力ボリュームサイズの長さ、Fをフィルタの長さ、Pをゼロパディングの量, Sをストライドとすると、その寸法に沿った特徴図の出力サイズOは次式で与えられる:
@@ -418,7 +418,7 @@ **60. Remark: we always have IoU∈[0,1]. By convention, a predicted bounding box Bp is considered as being reasonably good if IoU(Bp,Ba)⩾0.5.** -⟶ +⟶ 注意: 常にIoU∈[0,1]を持ってます。慣例により、予測されたバウンディングボックスBpはIoU(Bp,Ba)⩾0.5の場合適度に良いと見なされる。
@@ -481,35 +481,35 @@ **69. [Original image, Division in GxG grid, Bounding box prediction, Non-max suppression]** -⟶ [原画像, GxGグリッドでの分割, 物体検出, 非最大抑制] +⟶ [元の画像, GxGグリッドでの分割, 物体検出, 非最大抑制]
**70. Remark: when pc=0, then the network does not detect any object. In that case, the corresponding predictions bx,...,cp have to be ignored.** -⟶ +⟶ 注意: pc=0時、ネットワークは物体を検出しません。その場合には適当な予測 bx, ..., cpそれぞれは無視する必要があります。
**71. R-CNN ― Region with Convolutional Neural Networks (R-CNN) is an object detection algorithm that first segments the image to find potential relevant bounding boxes and then run the detection algorithm to find most probable objects in those bounding boxes.** -⟶ +⟶ R-CNN - 畳み込みニューラルネットワークを利用した領域は最初に潜在的な関連する境界ボックスを見つけるため画像を分割し、次にそれらの境界ボックス内の最も可能性の高いオブジェクトを見つけるため検出アルゴリズムを実行する物体検出アルゴリズムです。
**72. [Original image, Segmentation, Bounding box prediction, Non-max suppression]** -⟶ [原画像, セグメンテーション, 物体予測, 非最大抑制] +⟶ [元の画像, セグメンテーション, 物体予測, 非最大抑制]
**73. Remark: although the original algorithm is computationally expensive and slow, newer architectures enabled the algorithm to run faster, such as Fast R-CNN and Faster R-CNN.** -⟶ 注意: 原アルゴリズムは計算コストが高くて遅くても、より新たなアーキテクチャでは、 +⟶ 注意: 元のアルゴリズムは計算コストが高くて遅くても、より新たなアーキテクチャでは、 Fast R-CNNやFaster R-CNNなど、アルゴリズムをより高い速度に実行できる。
@@ -537,7 +537,7 @@ Fast R-CNNやFaster R-CNNなど、アルゴリズムをより高い速度に実 **77. [Is this the correct person?, One-to-one lookup, Is this one of the K persons in the database?, One-to-many lookup]** -⟶ +⟶ [これは正しい人ですか?, 一対一見上げる, これはデータベース内のk人のうちの一人ですか, 一対多見上げる]
@@ -593,7 +593,7 @@ Fast R-CNNやFaster R-CNNなど、アルゴリズムをより高い速度に実 **85. Content cost function ― The content cost function Jcontent(C,G) is used to determine how the generated image G differs from the original content image C. It is defined as follows:** -⟶ +⟶ コンテンツコスト関数 - Jcontent(C, G)というコンテンツコスト関数は元のコンテンツ画像Cと生成された画像Gとの違いを決定するため利用される。以下のように定義される:
@@ -621,7 +621,7 @@ Fast R-CNNやFaster R-CNNなど、アルゴリズムをより高い速度に実 **89. Overall cost function ― The overall cost function is defined as being a combination of the content and style cost functions, weighted by parameters α,β, as follows:** -⟶ +⟶ 全体コスト関数 - 全体コスト関数は以下のようにパラメータα,βによって重み付けされ、スタイルコスト関数とコンテンツの組み合わせた物として定義される:
@@ -663,7 +663,7 @@ Fast R-CNNやFaster R-CNNなど、アルゴリズムをより高い速度に実 **95. ResNet ― The Residual Network architecture (also called ResNet) uses residual blocks with a high number of layers meant to decrease the training error. The residual block has the following characterizing equation:** -⟶ +⟶ ResNet - 残渣ネットワークアーキテクチャ(ResNetとも呼ばれる)はトレーニングエラーを減らすため多数の層がある残差ブロックを使用する。残差ブロックは次の特定方程式を有する。
From 3835afdb8936a9fa95c5520d3cd29d87af55bd25 Mon Sep 17 00:00:00 2001 From: tt-anh-eole Date: Mon, 3 Jun 2019 18:40:49 +0900 Subject: [PATCH 14/23] [ja] Convolutional Neural Networks --- ja/convolutional-neural-networks.md | 8 ++++---- 1 file changed, 4 insertions(+), 4 deletions(-) diff --git a/ja/convolutional-neural-networks.md b/ja/convolutional-neural-networks.md index 138994a3d..df22f8e60 100644 --- a/ja/convolutional-neural-networks.md +++ b/ja/convolutional-neural-networks.md @@ -250,7 +250,7 @@ **36. Understanding the complexity of the model ― In order to assess the complexity of a model, it is often useful to determine the number of parameters that its architecture will have. In a given layer of a convolutional neural network, it is done as follows:** -⟶ +⟶ モデルの複雑さを理解する - モデルの複雑さを評価する為モデルのアーキテクチャが持つことになるパラメータの数を決定することはしばしば有用です。畳み込みニューラルネットワーク内で、以下のように行なわれる。
@@ -285,7 +285,7 @@ **41. Receptive field ― The receptive field at layer k is the area denoted Rk×Rk of the input that each pixel of the k-th activation map can 'see'. By calling Fj the filter size of layer j and Si the stride value of layer i and with the convention S0=1, the receptive field at layer k can be computed with the formula:** -⟶ +⟶ 受容的なフィルド - 層kの受容的なフィルドはk番目の活性化図の各ピックセルが見られる入力のRkxRkを表示されるエリアです。
@@ -306,7 +306,7 @@ **44. Rectified Linear Unit ― The rectified linear unit layer (ReLU) is an activation function g that is used on all elements of the volume. It aims at introducing non-linearities to the network. Its variants are summarized in the table below:** -⟶ +⟶ 整流線形ユニット - 整流線形ユニット層(ReLU)はボリュームの全ての要素に利用される活性化関数gです。ReLUの目的は非線型性をネットワークに紹介する。ReLUの変種は以下の表でまとめられる:
@@ -425,7 +425,7 @@ **61. Anchor boxes ― Anchor boxing is a technique used to predict overlapping bounding boxes. In practice, the network is allowed to predict more than one box simultaneously, where each box prediction is constrained to have a given set of geometrical properties. For instance, the first prediction can potentially be a rectangular box of a given form, while the second will be another rectangular box of a different geometrical form.** -⟶ +⟶ アンカーボックス - アンカーボクシングは重複バウンディングボックスを予測する為利用される技術です。実際に、
From bab0f90a521a160ae17f577c1ad94e240fa7643a Mon Sep 17 00:00:00 2001 From: tuananhhedspibk Date: Mon, 3 Jun 2019 23:00:02 +0900 Subject: [PATCH 15/23] [ja] Convolutional Neural Networks --- ja/convolutional-neural-networks.md | 6 +++--- 1 file changed, 3 insertions(+), 3 deletions(-) diff --git a/ja/convolutional-neural-networks.md b/ja/convolutional-neural-networks.md index df22f8e60..e4bc1ba70 100644 --- a/ja/convolutional-neural-networks.md +++ b/ja/convolutional-neural-networks.md @@ -285,7 +285,7 @@ **41. Receptive field ― The receptive field at layer k is the area denoted Rk×Rk of the input that each pixel of the k-th activation map can 'see'. By calling Fj the filter size of layer j and Si the stride value of layer i and with the convention S0=1, the receptive field at layer k can be computed with the formula:** -⟶ 受容的なフィルド - 層kの受容的なフィルドはk番目の活性化図の各ピックセルが見られる入力のRkxRkを表示されるエリアです。 +⟶ 受容的なフィルド - 層kの受容的なフィルドはk番目の活性化図の各ピックセルが見られる入力のRkxRkを表示されるエリアです。j層のフィルタサイズをFj、i層のストライド値をSi、規約S0=1とすると、k層での受容的なフィルドは式で計算される:
@@ -418,14 +418,14 @@ **60. Remark: we always have IoU∈[0,1]. By convention, a predicted bounding box Bp is considered as being reasonably good if IoU(Bp,Ba)⩾0.5.** -⟶ 注意: 常にIoU∈[0,1]を持ってます。慣例により、予測されたバウンディングボックスBpはIoU(Bp,Ba)⩾0.5の場合適度に良いと見なされる。 +⟶ 注意: 常にIoU∈[0,1]を持ってます。規約により、予測されたバウンディングボックスBpはIoU(Bp,Ba)⩾0.5の場合適度に良いと見なされる。
**61. Anchor boxes ― Anchor boxing is a technique used to predict overlapping bounding boxes. In practice, the network is allowed to predict more than one box simultaneously, where each box prediction is constrained to have a given set of geometrical properties. For instance, the first prediction can potentially be a rectangular box of a given form, while the second will be another rectangular box of a different geometrical form.** -⟶ アンカーボックス - アンカーボクシングは重複バウンディングボックスを予測する為利用される技術です。実際に、 +⟶ アンカーボックス - アンカーボクシングは重複バウンディングボックスを予測する為利用される技術です。実際には、同時に複雑のボックスを予測すろことを許可されており、各ボックス予測は与えられた幾何学的なプロパーティのセットを持つように制約される。例えば、最初の予測は与えられたフォームの長方形のボックスになる可能性があり、二番目のボックスは異なる幾何学的なフォームの別の長方形になります。
From e297c1e8b52f07b33daae4983b9c4933170bb602 Mon Sep 17 00:00:00 2001 From: tt-anh-eole Date: Tue, 4 Jun 2019 18:02:19 +0900 Subject: [PATCH 16/23] [ja] Convolutional Neural Networks --- ja/convolutional-neural-networks.md | 6 +++--- 1 file changed, 3 insertions(+), 3 deletions(-) diff --git a/ja/convolutional-neural-networks.md b/ja/convolutional-neural-networks.md index e4bc1ba70..b1a5f192b 100644 --- a/ja/convolutional-neural-networks.md +++ b/ja/convolutional-neural-networks.md @@ -320,7 +320,7 @@ **46. [Non-linearity complexities biologically interpretable, Addresses dying ReLU issue for negative values, Differentiable everywhere]** -⟶ +⟶ [生物学的に解釈可能な非線形複雑性, 負の値の為dyingReLUの問題を示す,どこても差別化可能]
@@ -411,7 +411,7 @@ **59. Intersection over Union ― Intersection over Union, also known as IoU, is a function that quantifies how correctly positioned a predicted bounding box Bp is over the actual bounding box Ba. It is defined as:** -⟶ +⟶ 労働組合の交差点 - 労働組合の交差点(IoUとも呼ばれる)は予測バウンディングボックスBpが実際のバウンディングボックスBaに対してどれだけ正しくかを定量化する関数です。次のように定義される:
@@ -544,7 +544,7 @@ Fast R-CNNやFaster R-CNNなど、アルゴリズムをより高い速度に実 **78. One Shot Learning ― One Shot Learning is a face verification algorithm that uses a limited training set to learn a similarity function that quantifies how different two given images are. The similarity function applied to two images is often noted d(image 1,image 2).** -⟶ +⟶ ワンショット学習 - ワンショット学習は二つの与えられた画像の違いを定量かする類似性関数を学ぶ為有限トレーニングセットを利用する顔認証アルゴリズムです。二つの画像に適用される類似性関数はしばしばd(画像1、画像2)と記される。
From a3e8f5a5f5c4d61db5240c1645aaddcad67e177c Mon Sep 17 00:00:00 2001 From: tuananhhedspibk Date: Tue, 4 Jun 2019 21:26:17 +0900 Subject: [PATCH 17/23] [ja] Convolutional Neural Networks --- ja/convolutional-neural-networks.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ja/convolutional-neural-networks.md b/ja/convolutional-neural-networks.md index e4bc1ba70..3c5578540 100644 --- a/ja/convolutional-neural-networks.md +++ b/ja/convolutional-neural-networks.md @@ -383,7 +383,7 @@ **55. Detection ― In the context of object detection, different methods are used depending on whether we just want to locate the object or detect a more complex shape in the image. The two main ones are summed up in the table below:** -⟶ 検出 - 物体検出の文脈では、画像内で物体を特定するのかそれとも複雑な形状を検出するのかによって、様々な方法は使用される。二つの主なものは次の表でまとめられる。 +⟶ 検出 - 物体検出の文脈では、画像内で物体を特定するのかそれとも複雑な形状を検出するのかによって、様々な方法は使用される。二つの主なものは次の表でまとめられる:
From 268df74ead1442908068386703fe1d59932462af Mon Sep 17 00:00:00 2001 From: tuananhhedspibk Date: Tue, 4 Jun 2019 23:00:52 +0900 Subject: [PATCH 18/23] [ja] Convolutional Neural Networks --- ja/convolutional-neural-networks.md | 12 ++++++------ 1 file changed, 6 insertions(+), 6 deletions(-) diff --git a/ja/convolutional-neural-networks.md b/ja/convolutional-neural-networks.md index bfd1c5875..095b94dd3 100644 --- a/ja/convolutional-neural-networks.md +++ b/ja/convolutional-neural-networks.md @@ -432,7 +432,7 @@ **62. Non-max suppression ― The non-max suppression technique aims at removing duplicate overlapping bounding boxes of a same object by selecting the most representative ones. After having removed all boxes having a probability prediction lower than 0.6, the following steps are repeated while there are boxes remaining:** -⟶ 非最大抑制 - 非最大抑制技術のねらいは最も代表的なもの選択によって同物体の重複する重なり合う境界ボックスを除去することです。0.6未満予測確率があるボックスを全て除去した後、残りのボックスがある間に以下のステップが繰り返される。 +⟶ 非最大抑制 - 非最大抑制技術のねらいは最も代表的なもの選択によって同物体の重複する重なり合う境界ボックスを除去することです。0.6未満予測確率があるボックスを全て除去した後、残りのボックスがある間に以下のステップが繰り返される:
@@ -509,8 +509,8 @@ **73. Remark: although the original algorithm is computationally expensive and slow, newer architectures enabled the algorithm to run faster, such as Fast R-CNN and Faster R-CNN.** -⟶ 注意: 元のアルゴリズムは計算コストが高くて遅くても、より新たなアーキテクチャでは、 -Fast R-CNNやFaster R-CNNなど、アルゴリズムをより高い速度に実行できる。 +⟶ 注意: 元のアルゴリズムは計算コストが高くて遅くても、より新たなアーキテクチャでは、Fast R-CNNやFaster R-CNNなど、アルゴリズムをより高い速度に実行できる。 +
@@ -558,7 +558,7 @@ Fast R-CNNやFaster R-CNNなど、アルゴリズムをより高い速度に実 **80. Triplet loss ― The triplet loss ℓ is a loss function computed on the embedding representation of a triplet of images A (anchor), P (positive) and N (negative). The anchor and the positive example belong to a same class, while the negative example to another one. By calling α∈R+ the margin parameter, this loss is defined as follows:** -⟶ +⟶ トリプレット損失 - トリプレット損失ℓはトリプレットの画像A(アンカー)、P(ポジティブ)、N(負)の埋め込み表現で計算する損失関数です。アンカーとポジティブ例は同じクラスに属し、ネガティブ例は別のものに属する。マージンパラメータはα∈R+と呼ぶことによってこの損失は次のように定義される:
@@ -642,7 +642,7 @@ Fast R-CNNやFaster R-CNNなど、アルゴリズムをより高い速度に実 **92. Generative Adversarial Network ― Generative adversarial networks, also known as GANs, are composed of a generative and a discriminative model, where the generative model aims at generating the most truthful output that will be fed into the discriminative which aims at differentiating the generated and true image.** -⟶ +⟶ 生成型敵対的ネットワーク - 生成型敵対的ネットワーク、GANsとも呼ばれるは生成モデルと識別モデルで構成される、生成モデルの目的は生成された画像と実像を区別する目的とする識別にフィードされる最も真実の出力を生成する。
@@ -670,7 +670,7 @@ Fast R-CNNやFaster R-CNNなど、アルゴリズムをより高い速度に実 **96. Inception Network ― This architecture uses inception modules and aims at giving a try at different convolutions in order to increase its performance through features diversification. In particular, it uses the 1×1 convolution trick to limit the computational burden.** -⟶ +⟶ インセプションネットワーク - このアーキテクチャはインセプションモジュールを利用し、特徴多様化を通じてパーフォーマンス改善の為別の畳み込みを試してみる目的とする。特に、計算負荷を限定する為1×1畳み込みトリックを使う。
From db204a51d8041231368f1a39f53775a118fea707 Mon Sep 17 00:00:00 2001 From: tuananhhedspibk Date: Sat, 24 Aug 2019 12:57:47 +0900 Subject: [PATCH 19/23] [ja] Convolutional Neural Networks --- ja/convolutional-neural-networks.md | 50 ++++++++++++++--------------- 1 file changed, 25 insertions(+), 25 deletions(-) diff --git a/ja/convolutional-neural-networks.md b/ja/convolutional-neural-networks.md index 095b94dd3..f12b21465 100644 --- a/ja/convolutional-neural-networks.md +++ b/ja/convolutional-neural-networks.md @@ -4,7 +4,7 @@ **1. Convolutional Neural Networks cheatsheet** -⟶ 畳み込み神経の網チートシート +⟶ 畳み込みニューラルネットワーク チートシート
@@ -25,7 +25,7 @@ **4. [Types of layer, Convolution, Pooling, Fully connected]** -⟶ [層のタイプ, 畳み込み, プーリング, 完全接続] +⟶ [層のタイプ, 畳み込み, プーリング, 全結合]
@@ -34,47 +34,47 @@ ⟶ -
[フィルタハイパーパラメータ, 寸法, ストライド, 詰め物] +
[フィルタハイパーパラメータ, 大きさ, ストライド, パディング] **6. [Tuning hyperparameters, Parameter compatibility, Model complexity, Receptive field]** -⟶ [調律ハイパーパラメータ, パラメータの互換性, モデルの複雑, 受容的なフィールド] +⟶ [ハイパーパラメータの調整, パラメータの互換性, モデルの複雑さ, 受容野]
**7. [Activation functions, Rectified Linear Unit, Softmax]** -⟶ [活性化関数, 修正済み線形単位, ソフトマックス] +⟶ [活性化関数, 正規化線形ユニット, ソフトマックス]
**8. [Object detection, Types of models, Detection, Intersection over Union, Non-max suppression, YOLO, R-CNN]** -⟶ [オブジェクト検出, モデルのタイプ, 検出, 組合の上の交差点, 非最大抑制, YOLO, R-CNN] +⟶ [オブジェクト検出, モデルのタイプ, 検出, 積集合の和集合, 非最大抑制, YOLO, R-CNN]
**9. [Face verification/recognition, One shot learning, Siamese network, Triplet loss]** -⟶ [顔認証/認識, 一発学習, シャムネットワーク, トリプレット損失] +⟶ [顔認証/認識, 一発学習, シャムネットワーク, 三重項損失]
**10. [Neural style transfer, Activation, Style matrix, Style/content cost function]** -⟶ [神経スタイル転送, 活性化, スタイル行列, スタイル/コンテンツコスト関数] +⟶ [ニューラルスタイル変換, 活性化, スタイル行列, スタイル/コンテンツコスト関数]
**11. [Computational trick architectures, Generative Adversarial Net, ResNet, Inception Network]** -⟶ [計算詭計アーキテクチャ, 生成型敵対的ネットワーク, ResNet, インセプションネットワーク] +⟶ [計算トリックアーキテクチャ, 敵対的生成ネットワーク, ResNet, インセプションネットワーク]
@@ -88,14 +88,14 @@ **13. Architecture of a traditional CNN ― Convolutional neural networks, also known as CNNs, are a specific type of neural networks that are generally composed of the following layers:** -⟶ 伝統的な畳み込み神経の網のアーキテクチャ - CNNとも知られる畳み込み神経の網は一般的に次の層で構成されている特定タイプの神経の網です。 +⟶ 伝統的な畳み込みニューラルネットワークのアーキテクチャ - CNNとしても知られる畳み込みニューラルネットワークは一般的に次の層で構成される特定タイプのニューラルネットワークです。
**14. The convolution layer and the pooling layer can be fine-tuned with respect to hyperparameters that are described in the next sections.** -⟶ 畳み込み層とプール層は次のセクションで説明されるハイパーパラメータに関して微調整されられる。 +⟶ 畳み込み層とプーリング層は次のセクションで説明されるハイパーパラメータに関して微調整できます。
@@ -109,21 +109,21 @@ **16. Convolution layer (CONV) ― The convolution layer (CONV) uses filters that perform convolution operations as it is scanning the input I with respect to its dimensions. Its hyperparameters include the filter size F and stride S. The resulting output O is called feature map or activation map.** -⟶ 畳み込み層 (CONV) - 畳み込み層 (CONV)は入力Iを寸法に関して走査している時畳み込みオペレーションズを行うフィルタを使用する。畳み込み層のハイパーパラメータにはフィルタサイズFとストライドSが含まれる。結果出力0は特徴図及び活性化図で呼ばれる。 +⟶ 畳み込み層 (CONV) - 畳み込み層 (CONV)は入力Iを各次元に関して走査する時に、畳み込み演算を行うフィルタを使用します。畳み込み層のハイパーパラメータにはフィルタサイズFとストライドSが含まれます。結果出力Oは特徴マップまたは活性化マップと呼ばれます。
**17. Remark: the convolution step can be generalized to the 1D and 3D cases as well.** -⟶ 注意: 畳み込みステップは1D及び3Dの場合にも一般化されられる。 +⟶ 注: 畳み込みステップは1次元や3次元の場合にも一般化できます。
**18. Pooling (POOL) ― The pooling layer (POOL) is a downsampling operation, typically applied after a convolution layer, which does some spatial invariance. In particular, max and average pooling are special kinds of pooling where the maximum and average value is taken, respectively.** -⟶ プーリング (POOL) - プール層 (POOL)はダウンサンプリング操作で、通常は空間的に不変な畳み込み層の後に適用される。特に、最大及び平均プーリングはそれぞれ最大と平均値が取られる特別な種類のプールです。 +⟶ プーリング (POOL) - プーリング層 (POOL)はダウンサンプリング操作で、通常は位置不変性をもつ畳み込み層の後に適用されます。特に、最大及び平均プーリングはそれぞれ最大と平均値が取られる特別な種類のプーリングです。
@@ -137,21 +137,21 @@ **20. [Max pooling, Average pooling, Each pooling operation selects the maximum value of the current view, Each pooling operation averages the values of the current view]** -⟶ [最大プール, 平均プール, 各プール操作は現在ビューの最大値を選ぶ, 各プール操作は現在ビューの値を平均する] +⟶ [最大プーリング, 平均プーリング, 各プーリング操作は現在のビューの中から最大値を選ぶ, 各プーリング操作は現在のビューに含まれる値を平均する]
**21. [Preserves detected features, Most commonly used, Downsamples feature map, Used in LeNet]** -⟶ [検出された特徴保持, 最も一般的に利用される, ダウンサンプル特徴図, LeNetで利用される] +⟶ [検出された特徴を保持する, 最も一般的に利用される, 特徴マップをダウンサンプリングする, LeNetで利用される]
**22. Fully Connected (FC) ― The fully connected layer (FC) operates on a flattened input where each input is connected to all neurons. If present, FC layers are usually found towards the end of CNN architectures and can be used to optimize objectives such as class scores.** -⟶ 完全接続 (FC) - 完全接続層は各入力は全ての神経に接続されているフラット化入力で動く。存在する場合、FC層は通常CNNアーキテクチャの終わりに向かって見られ、クラススコアなどの目的を最適化するため利用される。 +⟶ 全結合 (FC) - 全結合 (FC) 層は平坦化された入力に対して演算を行います。各入力は全てのニューロンに接続されています。FC層が存在する場合、通常CNNアーキテクチャの末尾に向かって見られ、クラススコアなどの目的を最適化するため利用できます。
@@ -165,14 +165,14 @@ **24. The convolution layer contains filters for which it is important to know the meaning behind its hyperparameters.** -⟶ 畳み込み層にはハイパーパラメータの背後にある意味を知ることが重要なフィルタが含まれる。 +⟶ 畳み込み層にはハイパーパラメータの背後にある意味を知ることが重要なフィルタが含まれています。
**25. Dimensions of a filter ― A filter of size F×F applied to an input containing C channels is a F×F×C volume that performs convolutions on an input of size I×I×C and produces an output feature map (also called activation map) of size O×O×1.** -⟶ フィルタの寸法 - C個別のチャネルを含む入力に適用されるFxFサイズのフィルタは0x0x1サイズの出力特徴図(活性化マップとも呼ばれている)を作り出し、IxIxCサイズの入力に対して畳み込みを実施するFxFxCボリュームです。 +⟶ フィルタの大きさ - C個のチャネルを含む入力に適用されるF×Fサイズのフィルタの体積はF×F×Cで、それはI×I×Cサイズの入力に対して畳み込みを実行してO×O×1サイズの特徴マップ(活性化マップとも呼ばれる)出力を生成します。
@@ -187,35 +187,35 @@ **27. Remark: the application of K filters of size F×F results in an output feature map of size O×O×K.** -⟶ 注意: FxFサイズのK個別のフィルタを適用すると、0x0xKサイズの出力特徴図を得られる。 +⟶ 注: F×FサイズのK個のフィルタを適用すると、O×O×Kサイズの特徴マップの出力を得られます。
**28. Stride ― For a convolutional or a pooling operation, the stride S denotes the number of pixels by which the window moves after each operation.** -⟶ ストライド - 畳み込みまたはプール操作に対して、ストライドSはそれぞれの操作の後にウィンドウに移動されるピクセル数を表示する。 +⟶ ストライド - 畳み込みまたはプーリング操作において、ストライドSは各操作の後にウィンドウを移動させるピクセル数を表します。
**29. Zero-padding ― Zero-padding denotes the process of adding P zeroes to each side of the boundaries of the input. This value can either be manually specified or automatically set through one of the three modes detailed below:** -⟶ ゼロパディング - ゼロパディングは入力の境界線の各側にP個別のゼロ追加プロセスを表す。この値は手動で指定されることも、以下に詳述する3つのモードのいずれを通じて自動的に設定されることもできる。 +⟶ ゼロパディング - ゼロパディングとは入力の各境界に対してP個のゼロを追加するプロセスを意味します。この値は手動で指定することも、以下に詳述する3つのモードのいずれかを使用して自動的に設定することもできます。
**30. [Mode, Value, Illustration, Purpose, Valid, Same, Full]** -⟶ [モード, 値, 図, 目的, 有効, 同様, フル] +⟶ [モード, 値, 図, 目的, Valid, Same, Full]
**31. [No padding, Drops last convolution if dimensions do not match, Padding such that feature map size has size ⌈IS⌉, Output size is mathematically convenient, Also called 'half' padding, Maximum padding such that end convolutions are applied on the limits of the input, Filter 'sees' the input end-to-end]** -⟶ [パディングなし, もし寸法が一致しなかったら最後の畳み込みを落とす, 特徴図のサイズが[IS]サイズになるようなパディング, 出力サイズは数学的に便利です, ハーフパディングとも呼ばれる, 入力の限界に端部畳み込みが適用されるような最大パディング, フィルタはエンドツーエンド入力を観察する] +⟶ [パディングなし, もし大きさが合わなかったら最後の畳み込みをやめる, 特徴マップのサイズが[IS]になるようなパディング, 出力サイズは数学的に扱いやすい, 「ハーフ」パディングとも呼ばれる, 入力の一番端まで畳み込みが適用されるような最大パディング, フィルタは入力を端から端まで「見る」]
@@ -588,7 +588,7 @@ ⟶ -
活性化 - 与えられた層Lで、活性化はa[l]と表示されて、nH×nw×ncの寸法。 +
活性化 - 与えられた層lで、活性化はa[l]と表示されて、nH×nw×ncの寸法。 **85. Content cost function ― The content cost function Jcontent(C,G) is used to determine how the generated image G differs from the original content image C. It is defined as follows:** From fc81c157463e9631fe198ff8eba070879458fc50 Mon Sep 17 00:00:00 2001 From: tuananhhedspibk Date: Sat, 7 Sep 2019 12:39:58 +0900 Subject: [PATCH 20/23] [ja] Convolutional Neural Networks --- ja/convolutional-neural-networks.md | 28 ++++++++++++++-------------- 1 file changed, 14 insertions(+), 14 deletions(-) diff --git a/ja/convolutional-neural-networks.md b/ja/convolutional-neural-networks.md index f12b21465..12a7a8ebd 100644 --- a/ja/convolutional-neural-networks.md +++ b/ja/convolutional-neural-networks.md @@ -32,9 +32,9 @@ **5. [Filter hyperparameters, Dimensions, Stride, Padding]** -⟶ +⟶ [フィルタハイパーパラメータ, 大きさ, ストライド, パディング] -
[フィルタハイパーパラメータ, 大きさ, ストライド, パディング] +
**6. [Tuning hyperparameters, Parameter compatibility, Model complexity, Receptive field]** @@ -348,9 +348,9 @@ **50. Types of models ― There are 3 main types of object recognition algorithms, for which the nature of what is predicted is different. They are described in the table below:** -⟶ +⟶ モデルの種類 - 物体認識アルゴリズムは主に三つのタイプがあり、予測されるものの性質は異なります。次の表で説明される。 -
モデルの種類 - 物体認識アルゴリズムは主に三つのタイプがあり、予測されるものの性質は異なります。次の表で説明される。 +
**51. [Image classification, Classification w. localization, Detection]** @@ -523,9 +523,9 @@ **75. Types of models ― Two main types of model are summed up in table below:** -⟶ +⟶ モデルのタイプ - 主な二つのモデルは次の表で要約される: -
モデルのタイプ - 主な二つのモデルは次の表で要約される: +
**76. [Face verification, Face recognition, Query, Reference, Database]** @@ -572,9 +572,9 @@ **82. Motivation ― The goal of neural style transfer is to generate an image G based on a given content C and a given style S.** -⟶ +⟶ モチベーション - 神経のスタイル転送の目的は与えられたコンテンツCとスタイルSに基づく画像Gを生成する。 -
モチベーション - 神経のスタイル転送の目的は与えられたコンテンツCとスタイルSに基づく画像Gを生成する。 +
**83. [Content C, Style S, Generated image G]** @@ -586,9 +586,9 @@ **84. Activation ― In a given layer l, the activation is noted a[l] and is of dimensions nH×nw×nc** -⟶ +⟶ 活性化 - 与えられた層lで、活性化はa[l]と表示されて、nH×nw×ncの寸法。 -
活性化 - 与えられた層lで、活性化はa[l]と表示されて、nH×nw×ncの寸法。 +
**85. Content cost function ― The content cost function Jcontent(C,G) is used to determine how the generated image G differs from the original content image C. It is defined as follows:** @@ -677,9 +677,9 @@ **97. The Deep Learning cheatsheets are now available in [target language].** -⟶ +⟶ 深層学習チートシートは今[ターゲット言語]で利用可能です。 -
深層学習チートシートは今[ターゲット言語]で利用可能です。 +
**98. Original authors** @@ -705,9 +705,9 @@ **101. View PDF version on GitHub** -⟶ +⟶ GithubでPDFバージョン見る -
GithubでPDFバージョン見る +
**102. By X and Y** From 48b5a95ed604f05744075340e5f4423adbefd20b Mon Sep 17 00:00:00 2001 From: tuananhhedspibk Date: Sat, 7 Sep 2019 13:09:28 +0900 Subject: [PATCH 21/23] [ja] Convolutional Neural Networks --- ja/convolutional-neural-networks.md | 90 ++++++++++++++--------------- 1 file changed, 45 insertions(+), 45 deletions(-) diff --git a/ja/convolutional-neural-networks.md b/ja/convolutional-neural-networks.md index 12a7a8ebd..d8e5017b1 100644 --- a/ja/convolutional-neural-networks.md +++ b/ja/convolutional-neural-networks.md @@ -32,7 +32,7 @@ **5. [Filter hyperparameters, Dimensions, Stride, Padding]** -⟶ [フィルタハイパーパラメータ, 大きさ, ストライド, パディング] +⟶ [フィルタハイパーパラメータ, 次元, ストライド, パディング]
@@ -53,14 +53,14 @@ **8. [Object detection, Types of models, Detection, Intersection over Union, Non-max suppression, YOLO, R-CNN]** -⟶ [オブジェクト検出, モデルのタイプ, 検出, 積集合の和集合, 非最大抑制, YOLO, R-CNN] +⟶ [物体検出, モデルのタイプ, 検出, IoU, 非極大抑制, YOLO, R-CNN]
**9. [Face verification/recognition, One shot learning, Siamese network, Triplet loss]** -⟶ [顔認証/認識, 一発学習, シャムネットワーク, 三重項損失] +⟶ [顔認証/認識, One shot学習, シャムネットワーク, 三重項損失]
@@ -95,7 +95,7 @@ **14. The convolution layer and the pooling layer can be fine-tuned with respect to hyperparameters that are described in the next sections.** -⟶ 畳み込み層とプーリング層は次のセクションで説明されるハイパーパラメータに関して微調整できます。 +⟶ 畳み込み層とプーリング層は次のセクションで説明されるハイパーパラメータに関してファインチューニングできます。
@@ -123,7 +123,7 @@ **18. Pooling (POOL) ― The pooling layer (POOL) is a downsampling operation, typically applied after a convolution layer, which does some spatial invariance. In particular, max and average pooling are special kinds of pooling where the maximum and average value is taken, respectively.** -⟶ プーリング (POOL) - プーリング層 (POOL)はダウンサンプリング操作で、通常は位置不変性をもつ畳み込み層の後に適用されます。特に、最大及び平均プーリングはそれぞれ最大と平均値が取られる特別な種類のプーリングです。 +⟶ プーリング (POOL) - プーリング層 (POOL)は位置不変性をもつ縮小操作で、通常は畳み込み層の後に適用されます。特に、最大及び平均プーリングはそれぞれ最大と平均値が取られる特別な種類のプーリングです。
@@ -172,7 +172,7 @@ **25. Dimensions of a filter ― A filter of size F×F applied to an input containing C channels is a F×F×C volume that performs convolutions on an input of size I×I×C and produces an output feature map (also called activation map) of size O×O×1.** -⟶ フィルタの大きさ - C個のチャネルを含む入力に適用されるF×Fサイズのフィルタの体積はF×F×Cで、それはI×I×Cサイズの入力に対して畳み込みを実行してO×O×1サイズの特徴マップ(活性化マップとも呼ばれる)出力を生成します。 +⟶ フィルタの次元 - C個のチャネルを含む入力に適用されるF×Fサイズのフィルタの体積はF×F×Cで、それはI×I×Cサイズの入力に対して畳み込みを実行してO×O×1サイズの特徴マップ(活性化マップとも呼ばれる)出力を生成します。
@@ -215,21 +215,21 @@ **31. [No padding, Drops last convolution if dimensions do not match, Padding such that feature map size has size ⌈IS⌉, Output size is mathematically convenient, Also called 'half' padding, Maximum padding such that end convolutions are applied on the limits of the input, Filter 'sees' the input end-to-end]** -⟶ [パディングなし, もし大きさが合わなかったら最後の畳み込みをやめる, 特徴マップのサイズが[IS]になるようなパディング, 出力サイズは数学的に扱いやすい, 「ハーフ」パディングとも呼ばれる, 入力の一番端まで畳み込みが適用されるような最大パディング, フィルタは入力を端から端まで「見る」] +⟶ [パディングなし, もし次元が合わなかったら最後の畳み込みをやめる, 特徴マップのサイズが[IS]になるようなパディング, 出力サイズは数学的に扱いやすい, 「ハーフ」パディングとも呼ばれる, 入力の一番端まで畳み込みが適用されるような最大パディング, フィルタは入力を端から端まで「見る」]
**32. Tuning hyperparameters** -⟶ 調律ハイパーパラメータ +⟶ ハイパーパラメータの調整
**33. Parameter compatibility in convolution layer ― By noting I the length of the input volume size, F the length of the filter, P the amount of zero padding, S the stride, then the output size O of the feature map along that dimension is given by:** -⟶ 畳み込み層内のパラメータ互換性 - Iを入力ボリュームサイズの長さ、Fをフィルタの長さ、Pをゼロパディングの量, Sをストライドとすると、その寸法に沿った特徴図の出力サイズOは次式で与えられる: +⟶ 畳み込み層内のパラメータ互換性 - Iを入力ボリュームサイズの長さ、Fをフィルタの長さ、Pをゼロパディングの量, Sをストライドとすると、その次元に沿った特徴マップの出力サイズOは次式で与えられます:
@@ -243,28 +243,28 @@ **35. Remark: often times, Pstart=Pend≜P, in which case we can replace Pstart+Pend by 2P in the formula above.** -⟶ 注意: しばしば、Pstart=Pend≜P、その場合、上記の式のようにPstart+Pendを2Pに置き換える事ができる。 +⟶ 注: 多くの場合Pstart=Pend≜Pであり、上記の式のPstart+Pendを2Pに置き換える事ができます。
**36. Understanding the complexity of the model ― In order to assess the complexity of a model, it is often useful to determine the number of parameters that its architecture will have. In a given layer of a convolutional neural network, it is done as follows:** -⟶ モデルの複雑さを理解する - モデルの複雑さを評価する為モデルのアーキテクチャが持つことになるパラメータの数を決定することはしばしば有用です。畳み込みニューラルネットワーク内で、以下のように行なわれる。 +⟶ モデルの複雑さを理解する - モデルの複雑さを評価するために、モデルのアーキテクチャが持つパラメータの数を測定することがしばしば有用です。畳み込みニューラルネットワークの各レイヤでは、以下のように行なわれます。
**37. [Illustration, Input size, Output size, Number of parameters, Remarks]** -⟶ [図, 入力サイズ, 出力サイズ, 引数の数, 備考] +⟶ [図, 入力サイズ, 出力サイズ, パラメータの数, 備考]
**38. [One bias parameter per filter, In most cases, S @@ -278,21 +278,21 @@ **40. [Input is flattened, One bias parameter per neuron, The number of FC neurons is free of structural constraints]** -⟶ [入力は平坦化される, ニューラルごとにひとつのバイアスパラメータ, FCニューラルの数は構造制約がない] +⟶ [入力は平坦化される, ニューロンごとにひとつのバイアスパラメータ, FCのニューロンの数には構造的制約がない]
**41. Receptive field ― The receptive field at layer k is the area denoted Rk×Rk of the input that each pixel of the k-th activation map can 'see'. By calling Fj the filter size of layer j and Si the stride value of layer i and with the convention S0=1, the receptive field at layer k can be computed with the formula:** -⟶ 受容的なフィルド - 層kの受容的なフィルドはk番目の活性化図の各ピックセルが見られる入力のRkxRkを表示されるエリアです。j層のフィルタサイズをFj、i層のストライド値をSi、規約S0=1とすると、k層での受容的なフィルドは式で計算される: +⟶ 受容野 - レイヤkにおける受容野は、k番目の活性化マップの各ピクセルが「見る」ことができる入力のRk×Rkの領域です。レイヤjのフィルタサイズをFj、レイヤiのストライド値をSiとし、慣例に従ってS0=1とすると、レイヤkでの受容野は次の式で計算されます:
**42. In the example below, we have F1=F2=3 and S1=S2=1, which gives R2=1+2⋅1+2⋅1=5.** -⟶ 下記の例で、F1=F2=3、S1=S2=1となるのでR2=1+2⋅1+2⋅1=5となる。 +⟶ 下記の例のようにF1=F2=3、S1=S2=1とすると、R2=1+2⋅1+2⋅1=5となります。
@@ -306,70 +306,70 @@ **44. Rectified Linear Unit ― The rectified linear unit layer (ReLU) is an activation function g that is used on all elements of the volume. It aims at introducing non-linearities to the network. Its variants are summarized in the table below:** -⟶ 整流線形ユニット - 整流線形ユニット層(ReLU)はボリュームの全ての要素に利用される活性化関数gです。ReLUの目的は非線型性をネットワークに紹介する。ReLUの変種は以下の表でまとめられる: +⟶ 正規化線形ユニット - 正規化線形ユニットレイヤ(ReLU)はボリュームの全ての要素に利用される活性化関数gです。ReLUの目的は非線型性をネットワークに導入することです。変種は以下の表でまとめられています:
**45. [ReLU, Leaky ReLU, ELU, with]** -⟶[ReLU, Leaky ReLU, ELU, with] +⟶[ReLU, Leaky ReLU, ELU, ただし]
**46. [Non-linearity complexities biologically interpretable, Addresses dying ReLU issue for negative values, Differentiable everywhere]** -⟶ [生物学的に解釈可能な非線形複雑性, 負の値の為dyingReLUの問題を示す,どこても差別化可能] +⟶ [生物学的に解釈可能な非線形複雑性, 負の値に対してReLUが死んでいる問題に対処する,どこても微分可能]
**47. Softmax ― The softmax step can be seen as a generalized logistic function that takes as input a vector of scores x∈Rn and outputs a vector of output probability p∈Rn through a softmax function at the end of the architecture. It is defined as follows:** -⟶ ソフトマックス - ソフトマックスステップは入力としてx∈Rnスコアのベクターを取り、アーキテクチャの最後にソフトマックス関数を通じてp∈Rn出力確率のベクターを出して、一般化ロジスティック関数として見る事ができる。 +⟶ ソフトマックス - ソフトマックスのステップは入力としてスコアx∈Rnのベクトルを取り、アーキテクチャの最後にあるソフトマックス関数を通じて確率p∈Rnのベクトルを出力する一般化されたロジスティック関数として見ることができます。次のように定義されます。
**48. where** -⟶ どこ +⟶ ここで
**49. Object detection** -⟶ オブジェクト検出 +⟶ 物体検出
**50. Types of models ― There are 3 main types of object recognition algorithms, for which the nature of what is predicted is different. They are described in the table below:** -⟶ モデルの種類 - 物体認識アルゴリズムは主に三つのタイプがあり、予測されるものの性質は異なります。次の表で説明される。 +⟶ モデルの種類 - 物体認識アルゴリズムは主に3つの種類があり、予測されるものの性質は異なります。次の表で説明されています。
**51. [Image classification, Classification w. localization, Detection]** -⟶ [画像分類, 分類 w. 局地化, 検出] +⟶ [画像分類, 位置特定を伴う分類, 検出]
**52. [Teddy bear, Book]** -⟶ [テディ熊, 本] +⟶ [テディベア, 本]
**53. [Classifies a picture, Predicts probability of object, Detects an object in a picture, Predicts probability of object and where it is located, Detects up to several objects in a picture, Predicts probabilities of objects and where they are located]** -⟶ [画像分類, オブジェクトの確率予測, 画像内のオブジェクト検出, オブジェクトの確率と所在地予測, 画像内の複数オブジェクト検出, 複数オブジェクトの確率と所在地予測] +⟶ [画像を分類する, 物体の確率を予測する, 画像内の物体を検出する, 物体の確率とその位置を予測する, 画像内の複数の物体を検出する, 複数の物体の確率と位置を予測する]
@@ -383,133 +383,133 @@ **55. Detection ― In the context of object detection, different methods are used depending on whether we just want to locate the object or detect a more complex shape in the image. The two main ones are summed up in the table below:** -⟶ 検出 - 物体検出の文脈では、画像内で物体を特定するのかそれとも複雑な形状を検出するのかによって、様々な方法は使用される。二つの主なものは次の表でまとめられる: +⟶ 検出 - 物体検出の文脈では、画像内の物体の位置を特定したいだけなのかあるいは複雑な形状を検出したいのかによって、異なる方法が使用されます。二つの主なものは次の表でまとめられています:
**56. [Bounding box detection, Landmark detection]** -⟶ [物体検出, ランドマーク検出] +⟶ [境界ボックス検出, ランドマーク検出]
**57. [Detects the part of the image where the object is located, Detects a shape or characteristics of an object (e.g. eyes), More granular]** -⟶ [物体が配置されている画像の部分検出, (例: 目)物体の特徴または形状検出, より粒状] +⟶ [物体が配置されている画像の部分を検出する, 物体(たとえば目)の形状または特徴を検出する, よりきめ細かい]
**58. [Box of center (bx,by), height bh and width bw, Reference points (l1x,l1y), ..., (lnx,lny)]** -⟶ [センターのボックス(bx, by), 縦bhと幅bw, 各参照ポイント (l1x,l1y), ..., (lnx,lny)] +⟶ [中心(bx, by)、高さbh、幅bwのボックス, 参照点(l1x,l1y), ..., (lnx,lny)]
**59. Intersection over Union ― Intersection over Union, also known as IoU, is a function that quantifies how correctly positioned a predicted bounding box Bp is over the actual bounding box Ba. It is defined as:** -⟶ 労働組合の交差点 - 労働組合の交差点(IoUとも呼ばれる)は予測バウンディングボックスBpが実際のバウンディングボックスBaに対してどれだけ正しくかを定量化する関数です。次のように定義される: +⟶ Intersection over Union - Intersection over Union (IoUとしても知られる)は予測された境界ボックスBpが実際の境界ボックスBaに対してどれだけ正しく配置されているかを定量化する関数です。次のように定義されます:
**60. Remark: we always have IoU∈[0,1]. By convention, a predicted bounding box Bp is considered as being reasonably good if IoU(Bp,Ba)⩾0.5.** -⟶ 注意: 常にIoU∈[0,1]を持ってます。規約により、予測されたバウンディングボックスBpはIoU(Bp,Ba)⩾0.5の場合適度に良いと見なされる。 +⟶ 注:常にIoU∈[0,1]となります。慣例では、IoU(Bp,Ba)⩾0.5の場合、予測された境界ボックスBpはそこそこ良いと見なされます。
**61. Anchor boxes ― Anchor boxing is a technique used to predict overlapping bounding boxes. In practice, the network is allowed to predict more than one box simultaneously, where each box prediction is constrained to have a given set of geometrical properties. For instance, the first prediction can potentially be a rectangular box of a given form, while the second will be another rectangular box of a different geometrical form.** -⟶ アンカーボックス - アンカーボクシングは重複バウンディングボックスを予測する為利用される技術です。実際には、同時に複雑のボックスを予測すろことを許可されており、各ボックス予測は与えられた幾何学的なプロパーティのセットを持つように制約される。例えば、最初の予測は与えられたフォームの長方形のボックスになる可能性があり、二番目のボックスは異なる幾何学的なフォームの別の長方形になります。 +⟶ アンカーボックス - アンカーボクシングは重なり合う境界ボックスを予測するために使用される手法です。 実際には、ネットワークは同時に複数のボックスを予測することを許可されており、各ボックスの予測は特定の幾何学的属性の組み合わせを持つように制約されます。例えば、最初の予測は特定の形式の長方形のボックスになる可能性があり、2番目の予測は異なる幾何学的形式の別の長方形のボックスになります。
**62. Non-max suppression ― The non-max suppression technique aims at removing duplicate overlapping bounding boxes of a same object by selecting the most representative ones. After having removed all boxes having a probability prediction lower than 0.6, the following steps are repeated while there are boxes remaining:** -⟶ 非最大抑制 - 非最大抑制技術のねらいは最も代表的なもの選択によって同物体の重複する重なり合う境界ボックスを除去することです。0.6未満予測確率があるボックスを全て除去した後、残りのボックスがある間に以下のステップが繰り返される: +⟶ 非極大抑制 - 非極大抑制技術のねらいは、最も代表的なものを選択することによって、同じ物体の重複した重なり合う境界ボックスを除去することです。0.6未満の予測確率を持つボックスを全て除去した後、残りのボックスがある間、以下の手順が繰り返されます:
**63. [For a given class, Step 1: Pick the box with the largest prediction probability., Step 2: Discard any box having an IoU⩾0.5 with the previous box.]** -⟶ [与えられたクラス, ステップ1: 最大予測確率があるボックスを取り。, ステップ2: 前のボックスと一緒にIoU⩾0.5のボックスを切り捨てる。] +⟶ [特定のクラスに対して, ステップ1: 最大の予測確率を持つボックスを選ぶ。, ステップ2: そのボックスに対してIoU⩾0.5となる全てのボックスを破棄する。]
**64. [Box predictions, Box selection of maximum probability, Overlap removal of same class, Final bounding boxes]** -⟶ [ボックス予測, 最大確率のボックス選択, 同じクラスの重なり合う除去, 最後のバウンディングボックス] +⟶ [ボックス予測, 最大確率のボックス選択, 同じクラスの重複除去, 最終的な境界ボックス]
**65. YOLO ― You Only Look Once (YOLO) is an object detection algorithm that performs the following steps:** -⟶ YOLO - 貴方は一度だけ見る (YOLO)は次のステップを実行するオブジェクト検出アルゴリズムです。 +⟶ YOLO - You Only Look Once (YOLO)は次の手順を実行する物体検出アルゴリズムです。
**66. [Step 1: Divide the input image into a G×G grid., Step 2: For each grid cell, run a CNN that predicts y of the following form:, repeated k times]** -⟶ [ステップ1: 入力画像をGxGグリッドに分ける。, ステップ2: 各グリッドセルに対して次の形式のyを予測するCNNを実行する:,k回繰り返す] +⟶ [ステップ1: 入力画像をGxGグリッドに分割する。, ステップ2: 各グリッドセルに対して次の形式のyを予測するCNNを実行する:,k回繰り返す]
**67. where pc is the probability of detecting an object, bx,by,bh,bw are the properties of the detected bouding box, c1,...,cp is a one-hot representation of which of the p classes were detected, and k is the number of anchor boxes.** -⟶ ここで、pcは物体認識の確率、bx,by,bh,bwはバウンディングボックスのプロパーティ、c1, ..., cpはpクラスのうちどれが検出されたかのワンホット表現で、kはアンカーボックスの数です。 +⟶ ここで、pcは物体を検出する確率、bx,by,bh,bwは検出された境界ボックスの属性、c1, ..., cpはp個のクラスのうちどれが検出されたかのOne-hot表現、kはアンカーボックスの数です。
**68. Step 3: Run the non-max suppression algorithm to remove any potential duplicate overlapping bounding boxes.** -⟶ 潜在的な重複バウンディングボックスを除去する為に非最大抑制アルゴリズムを実行する。 +⟶ ステップ3: 重複する可能性のある重なり合う境界ボックスを全て除去するため、非極大抑制アルゴリズムを実行する。
**69. [Original image, Division in GxG grid, Bounding box prediction, Non-max suppression]** -⟶ [元の画像, GxGグリッドでの分割, 物体検出, 非最大抑制] +⟶ [元の画像, GxGグリッドでの分割, 境界ボックス予測, 非極大抑制]
**70. Remark: when pc=0, then the network does not detect any object. In that case, the corresponding predictions bx,...,cp have to be ignored.** -⟶ 注意: pc=0時、ネットワークは物体を検出しません。その場合には適当な予測 bx, ..., cpそれぞれは無視する必要があります。 +⟶ 注: pc=0のとき、ネットワークは物体を検出しません。その場合には、対応する予測 bx, ..., cpは無視する必要があります。
**71. R-CNN ― Region with Convolutional Neural Networks (R-CNN) is an object detection algorithm that first segments the image to find potential relevant bounding boxes and then run the detection algorithm to find most probable objects in those bounding boxes.** -⟶ R-CNN - 畳み込みニューラルネットワークを利用した領域は最初に潜在的な関連する境界ボックスを見つけるため画像を分割し、次にそれらの境界ボックス内の最も可能性の高いオブジェクトを見つけるため検出アルゴリズムを実行する物体検出アルゴリズムです。 +⟶ R-CNN - Region with Convolutional Neural Networks (R-CNN)は物体検出アルゴリズムで、最初に画像をセグメント化して潜在的に関連する境界ボックスを見つけ、次に検出アルゴリズムを実行してそれらの境界ボックス内で最も可能性の高い物体を見つけます。
**72. [Original image, Segmentation, Bounding box prediction, Non-max suppression]** -⟶ [元の画像, セグメンテーション, 物体予測, 非最大抑制] +⟶ [元の画像, セグメンテーション, 境界ボックス予測, 非極大抑制]
**73. Remark: although the original algorithm is computationally expensive and slow, newer architectures enabled the algorithm to run faster, such as Fast R-CNN and Faster R-CNN.** -⟶ 注意: 元のアルゴリズムは計算コストが高くて遅くても、より新たなアーキテクチャでは、Fast R-CNNやFaster R-CNNなど、アルゴリズムをより高い速度に実行できる。 +⟶ 注: 元のアルゴリズムは計算コストが高くて遅いですが、Fast R-CNNやFaster R-CNNなどの、より新しいアーキテクチャではアルゴリズムをより速く実行できます。
From 5fc63dbb8ac7ebf311915bc712f32e5f91f0ff5b Mon Sep 17 00:00:00 2001 From: tuananhhedspibk Date: Thu, 12 Sep 2019 22:41:16 +0900 Subject: [PATCH 22/23] [ja] Convolutional Neural Networks --- ja/convolutional-neural-networks.md | 72 ++++++++++++++--------------- 1 file changed, 36 insertions(+), 36 deletions(-) diff --git a/ja/convolutional-neural-networks.md b/ja/convolutional-neural-networks.md index d8e5017b1..b1aeb644f 100644 --- a/ja/convolutional-neural-networks.md +++ b/ja/convolutional-neural-networks.md @@ -11,7 +11,7 @@ **2. CS 230 - Deep Learning** -⟶ CS 230 - 深層学習 +⟶ CS 230 - ディープラーニング
@@ -25,7 +25,7 @@ **4. [Types of layer, Convolution, Pooling, Fully connected]** -⟶ [層のタイプ, 畳み込み, プーリング, 全結合] +⟶ [層の種類, 畳み込み, プーリング, 全結合]
@@ -53,14 +53,14 @@ **8. [Object detection, Types of models, Detection, Intersection over Union, Non-max suppression, YOLO, R-CNN]** -⟶ [物体検出, モデルのタイプ, 検出, IoU, 非極大抑制, YOLO, R-CNN] +⟶ [物体検出, モデルの種類, 検出, IoU, 非極大抑制, YOLO, R-CNN]
**9. [Face verification/recognition, One shot learning, Siamese network, Triplet loss]** -⟶ [顔認証/認識, One shot学習, シャムネットワーク, 三重項損失] +⟶ [顔認証/認識, One shot学習, シャムネットワーク, トリプレット損失]
@@ -88,7 +88,7 @@ **13. Architecture of a traditional CNN ― Convolutional neural networks, also known as CNNs, are a specific type of neural networks that are generally composed of the following layers:** -⟶ 伝統的な畳み込みニューラルネットワークのアーキテクチャ - CNNとしても知られる畳み込みニューラルネットワークは一般的に次の層で構成される特定タイプのニューラルネットワークです。 +⟶ 伝統的な畳み込みニューラルネットワークのアーキテクチャ - CNNとしても知られる畳み込みニューラルネットワークは一般的に次の層で構成される特定種類のニューラルネットワークです。
@@ -102,7 +102,7 @@ **15. Types of layer** -⟶ 層のタイプ +⟶ 層の種類
@@ -130,7 +130,7 @@ **19. [Type, Purpose, Illustration, Comments]** -⟶ [タイプ, 目的, 図, コメント] +⟶ [種類, 目的, 図, コメント]
@@ -250,7 +250,7 @@ **36. Understanding the complexity of the model ― In order to assess the complexity of a model, it is often useful to determine the number of parameters that its architecture will have. In a given layer of a convolutional neural network, it is done as follows:** -⟶ モデルの複雑さを理解する - モデルの複雑さを評価するために、モデルのアーキテクチャが持つパラメータの数を測定することがしばしば有用です。畳み込みニューラルネットワークの各レイヤでは、以下のように行なわれます。 +⟶ モデルの複雑さを理解する - モデルの複雑さを評価するために、モデルのアーキテクチャが持つパラメータの数を測定することがしばしば有用です。畳み込みニューラルネットワークの各層では、以下のように行なわれます。
@@ -285,7 +285,7 @@ **41. Receptive field ― The receptive field at layer k is the area denoted Rk×Rk of the input that each pixel of the k-th activation map can 'see'. By calling Fj the filter size of layer j and Si the stride value of layer i and with the convention S0=1, the receptive field at layer k can be computed with the formula:** -⟶ 受容野 - レイヤkにおける受容野は、k番目の活性化マップの各ピクセルが「見る」ことができる入力のRk×Rkの領域です。レイヤjのフィルタサイズをFj、レイヤiのストライド値をSiとし、慣例に従ってS0=1とすると、レイヤkでの受容野は次の式で計算されます: +⟶ 受容野 - 層kにおける受容野は、k番目の活性化マップの各ピクセルが「見る」ことができる入力のRk×Rkの領域です。層jのフィルタサイズをFj、層iのストライド値をSiとし、慣例に従ってS0=1とすると、層kでの受容野は次の式で計算されます:
@@ -306,7 +306,7 @@ **44. Rectified Linear Unit ― The rectified linear unit layer (ReLU) is an activation function g that is used on all elements of the volume. It aims at introducing non-linearities to the network. Its variants are summarized in the table below:** -⟶ 正規化線形ユニット - 正規化線形ユニットレイヤ(ReLU)はボリュームの全ての要素に利用される活性化関数gです。ReLUの目的は非線型性をネットワークに導入することです。変種は以下の表でまとめられています: +⟶ 正規化線形ユニット - 正規化線形ユニット層(ReLU)はボリュームの全ての要素に利用される活性化関数gです。ReLUの目的は非線型性をネットワークに導入することです。変種は以下の表でまとめられています:
@@ -390,7 +390,7 @@ **56. [Bounding box detection, Landmark detection]** -⟶ [境界ボックス検出, ランドマーク検出] +⟶ [バウンディングボックス検出, ランドマーク検出]
@@ -523,7 +523,7 @@ **75. Types of models ― Two main types of model are summed up in table below:** -⟶ モデルのタイプ - 主な二つのモデルは次の表で要約される: +⟶ モデルの種類 - 2種類の主要なモデルが次の表にまとめられています:
@@ -537,42 +537,42 @@ **77. [Is this the correct person?, One-to-one lookup, Is this one of the K persons in the database?, One-to-many lookup]** -⟶ [これは正しい人ですか?, 一対一見上げる, これはデータベース内のk人のうちの一人ですか, 一対多見上げる] +⟶ [これは正しい人ですか?, 1対1検索, これはデータベース内のK人のうちの1人ですか, 1対多検索]
**78. One Shot Learning ― One Shot Learning is a face verification algorithm that uses a limited training set to learn a similarity function that quantifies how different two given images are. The similarity function applied to two images is often noted d(image 1,image 2).** -⟶ ワンショット学習 - ワンショット学習は二つの与えられた画像の違いを定量かする類似性関数を学ぶ為有限トレーニングセットを利用する顔認証アルゴリズムです。二つの画像に適用される類似性関数はしばしばd(画像1、画像2)と記される。 +⟶ ワンショット学習 - ワンショット学習は限られた学習セットを利用して、2つの与えられた画像の違いを定量化する類似度関数を学習する顔認証アルゴリズムです。2つの画像に適用される類似度関数はしばしばd(画像1, 画像2)と記されます。
**79. Siamese Network ― Siamese Networks aim at learning how to encode images to then quantify how different two images are. For a given input image x(i), the encoded output is often noted as f(x(i)).** -⟶ シャムネットワー - シャムネットワーは2つの画像の違いを定量化して、画像暗号化方法を学ぶことを目的としている。与えられたインプット画像x(i)に対して暗号化された出力はしばしばf(x(i))と表示される。 +⟶ シャムネットワーク - シャムネットワークは画像のエンコード方法を学習して2つの画像の違いを定量化することを目的としています。与えられた入力画像x(i)に対してエンコードされた出力はしばしばf(x(i))と記されます。
**80. Triplet loss ― The triplet loss ℓ is a loss function computed on the embedding representation of a triplet of images A (anchor), P (positive) and N (negative). The anchor and the positive example belong to a same class, while the negative example to another one. By calling α∈R+ the margin parameter, this loss is defined as follows:** -⟶ トリプレット損失 - トリプレット損失ℓはトリプレットの画像A(アンカー)、P(ポジティブ)、N(負)の埋め込み表現で計算する損失関数です。アンカーとポジティブ例は同じクラスに属し、ネガティブ例は別のものに属する。マージンパラメータはα∈R+と呼ぶことによってこの損失は次のように定義される: +⟶ トリプレット損失 - トリプレット損失ℓは3つ組の画像A(アンカー)、P(ポジティブ)、N(ネガティブ)の埋め込み表現で計算される損失関数です。アンカーとポジティブ例は同じクラスに属し、ネガティブ例は別のクラスに属します。マージンパラメータをα∈R+と呼ぶことによってこの損失は次のように定義されます:
**81. Neural style transfer** -⟶ 神経のスタイル転送 +⟶ ニューラルスタイル変換
**82. Motivation ― The goal of neural style transfer is to generate an image G based on a given content C and a given style S.** -⟶ モチベーション - 神経のスタイル転送の目的は与えられたコンテンツCとスタイルSに基づく画像Gを生成する。 +⟶ モチベーション - ニューラルスタイル変換の目的は与えられたコンテンツCとスタイルSに基づく画像Gを生成することです。
@@ -586,98 +586,98 @@ **84. Activation ― In a given layer l, the activation is noted a[l] and is of dimensions nH×nw×nc** -⟶ 活性化 - 与えられた層lで、活性化はa[l]と表示されて、nH×nw×ncの寸法。 +⟶ 活性化 - 層lにおける活性化はa[l]と表記され、次元はnH×nw×ncです。
**85. Content cost function ― The content cost function Jcontent(C,G) is used to determine how the generated image G differs from the original content image C. It is defined as follows:** -⟶ コンテンツコスト関数 - Jcontent(C, G)というコンテンツコスト関数は元のコンテンツ画像Cと生成された画像Gとの違いを決定するため利用される。以下のように定義される: +⟶ コンテンツコスト関数 - Jcontent(C, G)というコンテンツコスト関数は生成された画像Gと元のコンテンツ画像Cとの違いを測定するため利用されます。以下のように定義されます:
**86. Style matrix ― The style matrix G[l] of a given layer l is a Gram matrix where each of its elements G[l]kk′ quantifies how correlated the channels k and k′ are. It is defined with respect to activations a[l] as follows:** -⟶ スタイル行列 - 与えられた層lのスタイル行列 G[l]はグラム配列で、各要素G[l]kk′がチャネルkとk′の相関関係を定量化する。 +⟶ スタイル行列 - 与えられた層lのスタイル行列G[l]はグラム行列で、各要素G[l]kk′がチャネルkとk′の相関関係を定量化します。活性化a[l]に関して次のように定義されます。
**87. Remark: the style matrix for the style image and the generated image are noted G[l] (S) and G[l] (G) respectively.** -⟶ 注意: スタイル画像及び生成された画像に対するスタイル行列はそれぞれG[l] (S)、G[l] (G)と表示される。 +⟶ 注: スタイル画像及び生成された画像に対するスタイル行列はそれぞれG[l] (S)、G[l] (G)と表記されます。
**88. Style cost function ― The style cost function Jstyle(S,G) is used to determine how the generated image G differs from the style S. It is defined as follows:** -⟶ スタイルコスト関数 - スタイルコスト関数Jstyle(S,G)はスタイルSと生成された画像Gどう違うかを決定する為利用される。次のように定義される: +⟶ スタイルコスト関数 - スタイルコスト関数Jstyle(S,G)は生成された画像GとスタイルSとの違いを測定するため利用されます。以下のように定義されます:
**89. Overall cost function ― The overall cost function is defined as being a combination of the content and style cost functions, weighted by parameters α,β, as follows:** -⟶ 全体コスト関数 - 全体コスト関数は以下のようにパラメータα,βによって重み付けされ、スタイルコスト関数とコンテンツの組み合わせた物として定義される: +⟶ 全体のコスト関数 - 全体のコスト関数は以下のようにパラメータα,βによって重み付けされたコンテンツ及びスタイルコスト関数の組み合わせとして定義されます:
**90. Remark: a higher value of α will make the model care more about the content while a higher value of β will make it care more about the style.** -⟶ 注意: αのより高い値はモデルが内容をより気にするようにさせ、βのより高い値はスタイルをより気にするようになる。 +⟶ 注: αの値を大きくするとモデルはコンテンツを重視し、βの値を大きくするとスタイルを重視します。
**91. Architectures using computational tricks** -⟶ アーキテクチャは計算の詭計を利用している。 +⟶ 計算トリックを使うアーキテクチャ
**92. Generative Adversarial Network ― Generative adversarial networks, also known as GANs, are composed of a generative and a discriminative model, where the generative model aims at generating the most truthful output that will be fed into the discriminative which aims at differentiating the generated and true image.** -⟶ 生成型敵対的ネットワーク - 生成型敵対的ネットワーク、GANsとも呼ばれるは生成モデルと識別モデルで構成される、生成モデルの目的は生成された画像と実像を区別する目的とする識別にフィードされる最も真実の出力を生成する。 +⟶ 敵対的生成ネットワーク - 敵対的生成ネットワーク(GANsとも呼ばれる)は生成モデルと識別モデルで構成されます。生成モデルの目的は、生成された画像と本物の画像を区別することを目的とする識別モデルに与えられる、最も本物らしい出力を生成することです。
-**93. [Training, Noise, Real-world image, Generator, Discriminator, Real Fake]** +**93. [Training set, Noise, Real-world image, Generator, Discriminator, Real Fake]** -⟶ [トレーニング, 騒音, 現実世界の画像, ジェネレータ, 弁別器, 偽のリアル] +⟶ [学習セット, ノイズ, 現実世界の画像, 生成器, 識別器, 真 偽]
**94. Remark: use cases using variants of GANs include text to image, music generation and synthesis.** -⟶ 注意: GANsの変種を使用するユースケースには画像へのテキスト, 音楽生成及び合成があります。 +⟶ 注: GANsの変種を使用するユースケースにはテキストからの画像生成, 音楽生成及び合成があります。
**95. ResNet ― The Residual Network architecture (also called ResNet) uses residual blocks with a high number of layers meant to decrease the training error. The residual block has the following characterizing equation:** -⟶ ResNet - 残渣ネットワークアーキテクチャ(ResNetとも呼ばれる)はトレーニングエラーを減らすため多数の層がある残差ブロックを使用する。残差ブロックは次の特定方程式を有する。 +⟶ ResNet - Residual Networkアーキテクチャ(ResNetとも呼ばれる)は学習エラーを減らすため多数の層がある残差ブロックを使用します。残差ブロックは次の特性方程式を有します。
**96. Inception Network ― This architecture uses inception modules and aims at giving a try at different convolutions in order to increase its performance through features diversification. In particular, it uses the 1×1 convolution trick to limit the computational burden.** -⟶ インセプションネットワーク - このアーキテクチャはインセプションモジュールを利用し、特徴多様化を通じてパーフォーマンス改善の為別の畳み込みを試してみる目的とする。特に、計算負荷を限定する為1×1畳み込みトリックを使う。 +⟶ インセプションネットワーク - このアーキテクチャはインセプションモジュールを利用し、特徴量の多様化を通じてパーフォーマンスを向上させるため、様々な畳み込みを試すことを目的としています。特に、計算負荷を限定するため1×1畳み込みトリックを使います。
**97. The Deep Learning cheatsheets are now available in [target language].** -⟶ 深層学習チートシートは今[ターゲット言語]で利用可能です。 +⟶ ディープラーニングのチートシートが日本語で利用可能になりました。
@@ -691,7 +691,7 @@ **99. Translated by X, Y and Z** -⟶ X, Y, Zによる翻訳された +⟶ X・Y・Z 訳
@@ -705,13 +705,13 @@ **101. View PDF version on GitHub** -⟶ GithubでPDFバージョン見る +⟶ GitHubでPDF版を見る
**102. By X and Y** -⟶ X, Yによる +⟶ X・Y 著
From 0c7d275ef387f0dbd3d7ed423c9f49439fff3036 Mon Sep 17 00:00:00 2001 From: tuananhhedspibk Date: Fri, 27 Sep 2019 11:15:09 +0900 Subject: [PATCH 23/23] [ja] Convolutional Neural Networks --- ja/convolutional-neural-networks.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ja/convolutional-neural-networks.md b/ja/convolutional-neural-networks.md index b1aeb644f..bff314dce 100644 --- a/ja/convolutional-neural-networks.md +++ b/ja/convolutional-neural-networks.md @@ -698,7 +698,7 @@ **100. Reviewed by X, Y and Z** -⟶ X, Y, Zによるレビューされた +⟶ X, Y, Z 校正