-
Notifications
You must be signed in to change notification settings - Fork 334
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
[pt] cs-230-convolutional-neural-networks #128
Changes from 1 commit
16e77ae
75b252f
f5337aa
9853e1c
92b3de7
4aa0fef
File filter
Filter by extension
Conversations
Jump to
Diff view
Diff view
There are no files selected for viewing
Original file line number | Diff line number | Diff line change |
---|---|---|
|
@@ -489,77 +489,77 @@ | |
|
||
**70. Remark: when pc=0, then the network does not detect any object. In that case, the corresponding predictions bx,...,cp have to be ignored.** | ||
|
||
⟶ | ||
⟶ Observação: Quando pc=0, então a rede não detecta nenhum objeto. Nesse caso, as predições correspondentes bx,...,cp devem ser ignoradas. | ||
|
||
<br> | ||
|
||
|
||
**71. R-CNN ― Region with Convolutional Neural Networks (R-CNN) is an object detection algorithm that first segments the image to find potential relevant bounding boxes and then run the detection algorithm to find most probable objects in those bounding boxes.** | ||
|
||
⟶ | ||
⟶ R-CNN - Região com Redes Neurais Convolucionais (R-CNN) é um algoritmo de detecção de objetos que primeiro segmenta a imagem para encontrar potenciais caixas de delimitação relevantes e então roda o algoritmo de detecção para encontrar os objetos mais prováveis dentro das caixas de delimitação. | ||
|
||
<br> | ||
|
||
|
||
**72. [Original image, Segmentation, Bounding box prediction, Non-max suppression]** | ||
|
||
⟶ | ||
⟶ [Imagem original, Segmentação, Predição da caixa delimitadora, Supressão não-máxima] | ||
|
||
<br> | ||
|
||
|
||
**73. Remark: although the original algorithm is computationally expensive and slow, newer architectures enabled the algorithm to run faster, such as Fast R-CNN and Faster R-CNN.** | ||
|
||
⟶ | ||
⟶ Observação: embora o algoritmo original seja computacionalmente caro e lento, arquiteturas mais recentes, como o Fast R-CNN e o Faster R-CNN, permitiram que o algoritmo fosse executado mais rapidamente. | ||
|
||
<br> | ||
|
||
|
||
**74. Face verification and recognition** | ||
|
||
⟶ | ||
⟶ Verificação facial e reconhecimento | ||
|
||
<br> | ||
|
||
|
||
**75. Types of models ― Two main types of model are summed up in table below:** | ||
|
||
⟶ | ||
⟶ Tipos de modelos - Os dois principais tipos de modelos são resumidos na tabela abaixo: | ||
|
||
<br> | ||
|
||
|
||
**76. [Face verification, Face recognition, Query, Reference, Database]** | ||
|
||
⟶ | ||
⟶ [Verificação facial, Reconhecimento facial, Consulta, Referência, Banco de dados] | ||
|
||
<br> | ||
|
||
|
||
**77. [Is this the correct person?, One-to-one lookup, Is this one of the K persons in the database?, One-to-many lookup]** | ||
|
||
⟶ | ||
⟶ [Esta é a pessoa correta?, Pesquisa um-para-um, Esta é uma das K pessoas no banco de dados?, Pesquisa um-para-muitos] | ||
|
||
<br> | ||
|
||
|
||
**78. One Shot Learning ― One Shot Learning is a face verification algorithm that uses a limited training set to learn a similarity function that quantifies how different two given images are. The similarity function applied to two images is often noted d(image 1,image 2).** | ||
|
||
⟶ | ||
⟶ Aprendizado de Tiro Único (One Shot Learning) - One Shot Learning é um algoritmo de verificação facial que utiliza um conjunto de treinamento limitado para aprender uma função de similaridade que quantifica o quão diferentes são as duas imagens. A função de similaridade aplicada a duas imagens é frequentemente denotada como d(imagem 1, imagem 2). | ||
There was a problem hiding this comment. Choose a reason for hiding this commentThe reason will be displayed to describe this comment to others. Learn more. Disparo único There was a problem hiding this comment. Choose a reason for hiding this commentThe reason will be displayed to describe this comment to others. Learn more. Already changed that |
||
|
||
<br> | ||
|
||
|
||
**79. Siamese Network ― Siamese Networks aim at learning how to encode images to then quantify how different two images are. For a given input image x(i), the encoded output is often noted as f(x(i)).** | ||
|
||
⟶ | ||
⟶ Rede Siamesa (Siamese Network) - Siamese Networks buscam aprender como codificar imagens para depois quantificar quão diferentes são as duas imagens. Para uma imagem de entrada x(i), o resultado codificado é normalmente denotado como f(x(i)). | ||
|
||
<br> | ||
|
||
|
||
**80. Triplet loss ― The triplet loss ℓ is a loss function computed on the embedding representation of a triplet of images A (anchor), P (positive) and N (negative). The anchor and the positive example belong to a same class, while the negative example to another one. By calling α∈R+ the margin parameter, this loss is defined as follows:** | ||
|
||
⟶ | ||
⟶ Perda tripla (Triplet loss) - A perda tripla ℓ é uma função de perda (loss function) computada na representação da encorporação de três imagens A (âncora), P (positiva) e N (negativa). O exemplo da âncora e positivo pertencem à mesma classe, enquanto o exemplo negativo pertence a uma classe diferente. Chamando o parâmetro de margem de α∈R+, essa função de perda é calculada da seguinte forma: | ||
There was a problem hiding this comment. Choose a reason for hiding this commentThe reason will be displayed to describe this comment to others. Learn more. definida da seguinte forma |
||
|
||
<br> | ||
|
||
|
@@ -594,84 +594,84 @@ | |
|
||
**85. Content cost function ― The content cost function Jcontent(C,G) is used to determine how the generated image G differs from the original content image C. It is defined as follows:** | ||
|
||
⟶ | ||
⟶ Função de custo de conteúdo (Content cost function) - A função de custo de conteúdo Jcontent(C,G) é usada para determinar como a imagem gerada G difere da imagem de conteúdo original C. Ela é definida da seguinte forma: | ||
|
||
<br> | ||
|
||
|
||
**86. Style matrix ― The style matrix G[l] of a given layer l is a Gram matrix where each of its elements G[l]kk′ quantifies how correlated the channels k and k′ are. It is defined with respect to activations a[l] as follows:** | ||
|
||
⟶ | ||
⟶ Matriz de estilo - A matriz de estilo G[l] de uma determinada camada l é a matriz de Gram em que cada um dos seus elementos G[l]kk′ quantificam quão correlacionados são os canais k e k′. Ela é definida com respeito às ativações a[l] da seguinte forma: | ||
|
||
<br> | ||
|
||
|
||
**87. Remark: the style matrix for the style image and the generated image are noted G[l] (S) and G[l] (G) respectively.** | ||
|
||
⟶ | ||
⟶ Observação: a matriz de estilo para a imagem estilizada e para a imagem gerada são denotadas como G[l] (S) e G[l] (G), respectivamente. | ||
|
||
<br> | ||
|
||
|
||
**88. Style cost function ― The style cost function Jstyle(S,G) is used to determine how the generated image G differs from the style S. It is defined as follows:** | ||
|
||
⟶ | ||
⟶ Função de custo de estilo (Style cost function) - A função de custo de estilo Jstyle(S,G) é usada para determinar como a imagem gerada G difere do estilo S. Ela é definida da seguinte forma: | ||
|
||
<br> | ||
|
||
|
||
**89. Overall cost function ― The overall cost function is defined as being a combination of the content and style cost functions, weighted by parameters α,β, as follows:** | ||
|
||
⟶ | ||
⟶ Função de custo geral (Overall cost function) é definida como sendo a combinação das funções de custo do conteúdo e do estilo, ponderada pelos parâmetros α,β, como mostrado abaixo: | ||
|
||
<br> | ||
|
||
|
||
**90. Remark: a higher value of α will make the model care more about the content while a higher value of β will make it care more about the style.** | ||
|
||
⟶ | ||
⟶ Observação: um valor de α maior irá fazer com que o modelo se preocupe mais com o conteúdo enquanto um maior valor de β irá fazer com que ele se preocupe mais com o estilo. | ||
|
||
<br> | ||
|
||
|
||
**91. Architectures using computational tricks** | ||
|
||
⟶ | ||
⟶ Arquiteturas usando truques computacionais | ||
|
||
<br> | ||
|
||
|
||
**92. Generative Adversarial Network ― Generative adversarial networks, also known as GANs, are composed of a generative and a discriminative model, where the generative model aims at generating the most truthful output that will be fed into the discriminative which aims at differentiating the generated and true image.** | ||
|
||
⟶ | ||
⟶ Rede Adversarial Gerativa (Generative Adversarial Network) - As Generaive Adversarial Networks, também conhecidas como GANs, são compostas de um modelo generativo e um modelo discriminativo, onde o modelo generativo visa gerar a saída mais verdadeira que será alimentada na discriminativa que visa diferenciar a imagem gerada e verdadeira. | ||
There was a problem hiding this comment. Choose a reason for hiding this commentThe reason will be displayed to describe this comment to others. Learn more. a imagem gerada e a imagem verdadeira |
||
|
||
<br> | ||
|
||
|
||
**93. [Training, Noise, Real-world image, Generator, Discriminator, Real Fake]** | ||
|
||
⟶ | ||
⟶ [Treinamento, Ruído, Imagem real, Gerador, Discriminador, Falsa real] | ||
|
||
<br> | ||
|
||
|
||
**94. Remark: use cases using variants of GANs include text to image, music generation and synthesis.** | ||
|
||
⟶ | ||
⟶ Observação: casos de uso usando variações de GANs incluem texto para imagem, geração de música e síntese. | ||
|
||
<br> | ||
|
||
|
||
**95. ResNet ― The Residual Network architecture (also called ResNet) uses residual blocks with a high number of layers meant to decrease the training error. The residual block has the following characterizing equation:** | ||
|
||
⟶ | ||
⟶ ResNet - A arquitetura de Rede Residual (também chamada de ResNet) usa blocos residuais com um alto número de camadas para diminuir o erro de treinamento. O bloco residual possui a seguinte equação caracterizadora: | ||
|
||
<br> | ||
|
||
|
||
**96. Inception Network ― This architecture uses inception modules and aims at giving a try at different convolutions in order to increase its performance through features diversification. In particular, it uses the 1×1 convolution trick to limit the computational burden.** | ||
|
||
⟶ | ||
⟶ Rede de Iniciação - Esta arquitetura utiliza módulos de iniciação e visa experimentar diferentes convoluções, a fim de aumentar seu desempenho através da diversificação de recursos. Em particular, ele usa o truque de convolução 1×1 para limitar a carga computacional. | ||
|
||
<br> | ||
|
||
|
@@ -699,7 +699,7 @@ | |
|
||
**100. Reviewed by X, Y and Z** | ||
|
||
⟶ Revisado por | ||
⟶ Revisado por X, Y e Z | ||
|
||
<br> | ||
|
||
|
@@ -713,6 +713,6 @@ | |
|
||
**102. By X and Y** | ||
|
||
⟶ | ||
⟶ Por X e Y | ||
|
||
<br> |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Don't you think "seja" is better than "fosse"?
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
I think 'seja' is better because even though we have newer faster algorithms, the old one is still slow and expensive, right? I think that if it was written "was", "fosse" would be better indeed