Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

[AI Anti-AI] Uso de inteligência artificial contra I.A. / automações de fake news com desenvolvimento de IAs fracas de suporte a humanos ou IAs autônomas #2

Open
fititnt opened this issue Aug 25, 2017 · 0 comments

Comments

@fititnt
Copy link
Member

fititnt commented Aug 25, 2017

Tem-se os seguintes problemas com Fake News (assumindo como base ano de 2017) que são explorados por pessoas mal intencionadas:

  1. É difícil descoberta automatizada sem deixar em lista negra um fornecedor de conteúdo inteiro (o que sobrecarga suporte humano e/ou gera falsos positivos)
  2. Quando uma notícia ou principalmente um fornecedor inteiro sofre punição tende a haver comoção social ou política, independente da notícia ser realmente falsa ou não
  3. Criadores de notícia bem intencionados, porém não especializados, podem criar novas notícias baseadas em fontes não confiáveis por erro humano
  4. Tecnologia atual depende quase que exclusivamente de denúncia de usuários (que podem errar, ou podem ser um ataque coordenado) e, além de aprendizagem de máquina (que também pode levar a erros)
  5. Um humano que fizer críticas a uma notícia falsa polêmica tenderá a ser perseguido; nível simples é atacado como "você está falando disso porque é apoiador do lado oposto!" e nível mais avançado "ok, você está certo, mas o outro lado também faz isso!"

Proposta: estimular desenvolvimento de IAs fracas / automações / ferramentas multi-propósito que poderiam ser reusadas neste projeto

Um objetivo de longo prazo, que seria uma grande evolução nos 5 problemas listados anteriormente, é ou listar ferramentas já existentes ou estimular criação de novas que possam ser usadas nos anos seguintes por humanos ou mesmo por automações completamente autônomas, de modo que o custo de reduzir ruído (veja #1) seja muito barato ao ponto de tornar inviável a criação de fake news.

O objetivo aqui é desempregar quem se alimenta da industria de desinformação. E se possível até mesmo aceitar ajuda de opositores de um grupo que alimentariam algorítimos que serão usados mais tarde contra o seu próprio grupo.

Exemplos de IAs fracas com propósito muito especifico

Para tornar isso factível, é possível quebrar o problema grande em vários menores, aqui "inteligências artificiais fracas" focadas em tarefas muito simples. Tais IAs podem ser consumidas por humanos ou por outras IAs mais fortes e retornar se a informação tende a ser fake news.

Exemplos

  1. Robô informa se o link fornecido é de uma data muito antiga
  2. Robô que retorna se determinada frase é escrita de forma exagerada e/ou, se essa frase exagerada está contida em outro texto fornecido (útil para quem afirma algo em uma rede social, mas o link fornecido não tem referência a essa afirmação)
  3. Robô que retorna se um texto tem elementos clássicos de hoax (farsas virais que pedem para serem compartilhadas) e dá uma nota de confiabilidade
  4. Robô que extrai texto de imagem (isso é útil como intermediária de outros robôs; há caso de mensagens que usam imagem para evitar serem pegas por filtros)
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

1 participant