Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

Marketing digital como instrumento de controle

131 views

Published on

Apresentação XI Simpósio Nacional da ABCIBER
Juiz de Fora/ UFJF, 2018
Luiz Agner e Juliana Hofstetter

Published in: Social Media
  • Be the first to comment

  • Be the first to like this

Marketing digital como instrumento de controle

  1. 1. O marketing digital como instrumento de controle nas redes sociais Luiz Agner (Facha, RJ) Juliana Hofstetter (Facha, RJ) XI Simpósio Nacional da ABCIBER Juiz de Fora/ UFJF, 2018
  2. 2. Introdução • Mundo interconectado, IoT • PNAD/IBGE: 70% domicílios conectados • Marketing digital e redes sociais • Objetos conectados: 8,4 bilhões • 20,4 bilhões de dispositivos conectados até 2020 (Gartner) (iluminação, aquecimento, ventilação e ar condicionado, e sistemas de segurança).
  3. 3. Objetivos • Analisar aspectos do modo de atuação do controle e do poder exercido pela vigilância na sociedade digital; • Ética, a segurança e o potencial de controle dos algoritmos, que coletam dados, os armazenam, combinam, analisam e criam padrões que revelam tendências; • Escândalo do vazamento de dados de usuários na rede social Facebook e seu emprego como estratégia de marketing político pela consultoria Cambridge Analytica.
  4. 4. • Foucault: relações de poder ao longo da história e suas articulações; • Configuração de sociedades disciplinares. • O panoptismo: analogia com um sistema de vigilância total e individualizante, em que a estrutura circular permite a observação sistemática dos vigiados, preservando a opacidade dos vigilantes. Sociedade disciplinar Panóptico
  5. 5. • Gilles Deleuze: • A partir do final séc. 20 e séc. 21 • Poder não é mais hierárquico, disperso em rede planetária e difusa. • Natureza reticular, interconectada. • Interpenetração dos espaços, num tempo contínuo; • Em uma matriz onipresente que regula as malhas do tecido social. Sociedade de controle
  6. 6. • Bauman & Lyon; Bruno: • Armas de sedução do marketing vão utilizar os resultados da vigilância sistemática; • Bancos de dados, algoritmos, aprendizado de máquina e perfis computacionais • Buscar a apropriação e processamento de dados e metadados comportamentais dos consumidores. Marketing e vigilância
  7. 7. • Domingues (2016): • Conhecer e controlar o que os cidadãos pensam ou postam nas mídias sociais é a estratégia central de marketing e de tomada de decisão a ser praticada por todo tipo de atores: • iniciativa privada, governos, potenciais governantes, movimentos sociais, partidos políticos etc. Publicidade de controle Panóptico
  8. 8. • Tecnologias que usam IA e aprendizado de máquina permitem que a arquitetura da persuasão no universo online seja construída de forma individualizada: • Facebook, Google, Amazon, Alibaba • Interferência em diversas escalas da vida dos indivíduos, produzindo um novo modelo de controle social. • Os dados de bilhões são usados para influenciar a opinião pública e o mercado financeiro. Machine learning e IA
  9. 9. Cambridge Analytica
  10. 10. • Subsidiária da SCL (Strategic Communication Laboratories). • SCL foi fundada há 25 anos com vários braços: publicitário, militar, eleitoral e analítico. • Especializada em op-psy. • Clientes: OTAN, o Ministério da Defesa Britânico, a National Security Agency (NSA), o Depto. de Estado EUA. • CA participou de eleições em uma infinidade de países com técnicas duvidosas, além do Brexit. • Missão da CA: Utilizar a análise de dados em larga escala para “alterar o comportamento da audiência” (site oficial). • Vice-presidente: Steve Bannon (proprietário Breitbart News) Cambridge Analytica
  11. 11. • CA analisou likes para identificar opiniões políticas, convicções religiosas, personalidade, inteligência, grau de satisfação, orientação sexual, e se os pais são divorciados. • Até 5.000 tipos de dados de nacionalidade, política, consumo, e estilo de vida de cada eleitor. • Mais a camada de classificação de personalidade baseada em abertura, consciência, extroversão, amabilidade e neurose (modelo OCEAN). Cambridge Analytica
  12. 12. Cambridge Analytica
  13. 13. Cambridge Analytica
  14. 14. • 10 likes: o algoritmo conhece o usuário melhor que um colega de trabalho; • 100 likes: conhece melhor que os seus pais; • 230 likes: conhece melhor que o seu cônjuge. • Dark post: mensagem hiper-personalizada que não aparece para os demais usuários; não é público; • 77 mil votos somados em 3 estados-chave deram a vitória a Trump, que recebeu 3 milhões de votos a menos. • A democracia é o novo campo de disrupção e de instabilidade causada pela tecnologia. Cambridge Analytica
  15. 15. • FGV descreve a atuação dos social bots. • São contas controladas por software que mimetizam ações humanas e atuam de forma perniciosa nas redes sociais, através de perfis falsos, impulsionando debates, forjando discussões e disseminando fake news. • O Whatsapp foi utilizado de modo ilegal na campanha de 2018, com envio de massa de mensagens com desinformação. A empresa bloqueou contas ligadas às agências Quickmobile, Yacows, Croc Services, SMS Market. Desdobramentos no Brasil
  16. 16. • Consequências humanas de uma sociedade tecnológica orientada por grandes volumes de dados e por algoritmos com base em inteligência artificial? • São ferramentas encapsuladas em caixas pretas, segredos comerciais. • Os cidadãos não têm acesso ao funcionamento e não as podem compreender. Pontos para discussão Pasquale (2015)
  17. 17. • Era digital gerou o enfraquecimento dos gatekeepers tradicionais, como a mídia, o governo e a academia, em prol de novos gatekeepers algorítmicos. • Esfera pública confusa, poluída e repleta de ruídos, onde proliferaram discursos extremistas e desinformação. • Os novos gatekeepers algorítmicos não têm neutralidade, • Modelos de negócios que incentivam as preferências enviesadas. Pontos para discussão Tufekci (2018)
  18. 18. • Qualquer pessoa pode postar os seus pensamentos; • “Era de ouro” da liberdade de expressão? • A capacidade de disseminar ideias não é mais limitada pela infraestrutura centralizada e cara de broadcasting. • O limite é a nossa habilidade de captar atenção, • dominada por poucas plataformas e por seus algoritmos de vigilância massiva. Pontos para discussão
  19. 19. • Formas mais eficazes de censura: • campanhas coordenadas de assédio, ameaças e ódio, epidemias de desinformação, viralização da distração, descrédito das fontes tradicionais de informação: a academia, a imprensa. • Objetivo das velhas formas de censura: impedir a criação e a propagação das idéias. Pontos para discussão
  20. 20. • O modelo de negócios - captar a atenção das pessoas através de uma infraestrutura de vigilância massiva para vender anúncios automatizados. • É mais compatível com regimes autoritários, propaganda, desinformação e polarização. • Do que com o conceito de liberdade de pensamento e expressão. Pontos para discussão
  21. 21. Obrigado! luizagner@gmail.com www.agner.com.br FACHA - Rio de Janeiro, RJ

×