Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.
Abrindo as caixas-pretas:
reações à (des)inteligência artificial
Tarcízio Silva
Tarcízio Silva
• Doutorando em Ciências Humanas e Sociais pela UFABC
• Curador e pesquisador da Desvelar – Conhecimento
Af...
Ecossistema digital
e o “big five”
(VAN DIJCK, POELL & DE WALL, 2018)
Capitalismo de Plataforma
Plataformas de
Publicidade
Plataformas de
Nuvem
Plataformas de
Produto e
“Lean”
Plataformas
Self...
Plataformização da Web e sociedade
O sistema de plataformas é baseado em
paradoxos entre práticas e discursos. Vende-
se c...
Plataformas e a redistribuição de métodos
https://www.nature.com/articles/nature11421
Facebook gerou 340 mil votos a mais ...
Plataformas e a redistribuição de métodos
Em experimento de 2013, o Facebook
realizou experimento de contágio social
com 6...
Plataformas de Publicidade
No cenário crescentemente dominado
pelas plataformas digitais e seus
algoritmos surge uma exigê...
A metáfora da caixa preta em estudos de tecnologia e sociedade
Um chatbot inteligente...
O caso da Tay da Microsoft é um dos mais
famosos. Lançado em 2016, foi uma
persona no Twitter qu...
Um chatbot inteligente... desenvolvedores menos ainda
Análise de risco de reincidência criminal
Análise de risco de reincidência criminal
https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sen...
Análise de risco de reincidência criminal
https://www.propublica.org/article/machine-bias-risk-
assessments-in-criminal-se...
Reconhecimento facial e invisibilidade
Visualidades e buscadores: hyper-visibilidade e invisibilidade
A hipersexualização e
hiper-visibilidade de
garotas negras ...
Technochauvinismo
Technochauvinismo é a crença de que “mais
tecnologia” é sempre a solução. Geralmente vem
acompanhada por...
Como combater
tecnochauvinismo,
discriminação
algorítmica e usos
nocivos da IA?
Imagem
Injustiça é multifacetada e não
tem apenas uma única fonte ou
solução. É necessário uma
virada reflexiva no debate sobre
d...
Papers propondo
novos modelos
! Papers estudando
modelos existentes
!
(Epstein, 2018)
Uma melhor
compreensão de aittudes
s...
Auditoria de Código / Datasets
gendershades.org
Auditoria de Código / Datasets
gendershades.org
Auditoria de Código
gendershades.org
https://www.revealnews.org/article/heres
-the-clearest-picture-of-silicon-valleys-
diversity-yet
Quem produz os algoritmos...
https://www.revealnews.org/article/heres
-the-clearest-picture-of-silicon-valleys-
diversity-yet
“Na medida que o mundo é
...
Pressão de funcionários
Pressão da sociedade civil
Pressão da sociedade civil
Arte
Projeto de Dima Yarovinsky
para mostrar o tamanho dos
"Termos de Serviço" das
principais plataformas de
mídias sociai...
Arte
CV Dazzle HyperFace
Literacia midiática e computacional
Literacia midiática e computacional
Instituições, legislativo e regulação
“Em casos nos quais o uso de
sistemas de aprendizado de
máquina tem um potencial de
...
Instituições, legislativo e regulação
A governança algorítmica tende a ser cada
vez mais presente – comunicadores e
cienti...
Sistemas abertos, open source, midialivrismo
”But for all the good we've
achieved, the web has evolved
into an engine of i...
As coisas
são
tem
e fazem
políticas
Racismo algorítmico
Maconha e
encarceramento
Pílulas anti-concepcionais
e políticas de...
Referências
BROUSSARD, Meredith. Artificial unintelligence: how computers misunderstand the world. MIT Press, 2018.
BUOLAM...
Upcoming SlideShare
Loading in …5
×

Abrindo as caixas-pretas: reações à (des)inteligência artificial

527 views

Published on

Slideshow apresentado no debate “Ser humano: que ficção é essa?” componente do projeto "Enquanto Somos Humanos" de Michelle Moura e Maicon K.

Published in: Science
  • Be the first to comment

  • Be the first to like this

Abrindo as caixas-pretas: reações à (des)inteligência artificial

  1. 1. Abrindo as caixas-pretas: reações à (des)inteligência artificial Tarcízio Silva
  2. 2. Tarcízio Silva • Doutorando em Ciências Humanas e Sociais pela UFABC • Curador e pesquisador da Desvelar – Conhecimento Afrodiaspórico • Mestre em Comunicação pela UFBA • Sócio e Editor no Instituto Brasileiro de Pesquisa e Análise de Dados • Co-organizador de livros como “Estudando Cultura e Comunicação com Mídias Sociais” (Editora IBPAD, 2018); “Monitoramento e Pesquisa em Mídias Sociais: metodologias, aplicações e inovações” (Uva Limão, 2016); e “Para Entender o Monitoramento de Mídias Sociais (Bookess, 2012). tarciziosilva.com.br
  3. 3. Ecossistema digital e o “big five” (VAN DIJCK, POELL & DE WALL, 2018)
  4. 4. Capitalismo de Plataforma Plataformas de Publicidade Plataformas de Nuvem Plataformas de Produto e “Lean” Plataformas Self/Afetivas Plataformas Industriais Nick Srnicek
  5. 5. Plataformização da Web e sociedade O sistema de plataformas é baseado em paradoxos entre práticas e discursos. Vende- se como igualitário, mas é hierárquico. É altamente corporativo, mas aparente servir aos valores públicos. Parece neutro e agnóstico, mas seu desenho carrega um conjunto de valores. Parece substituir a direção “top down” de governos e estado, mas a substitui com estrutura centralizada e mais opaca ainda a seus usuários Djick, Poell & De Wall, 2018 “Paradoxos” egualitário x hierárquico corporações x valor público neutro x valores ideológicos local x global top-down x bottom-up abertura x opacidade
  6. 6. Plataformas e a redistribuição de métodos https://www.nature.com/articles/nature11421 Facebook gerou 340 mil votos a mais nas eleições de 2012 apenas com um pequeno ajuste de interface
  7. 7. Plataformas e a redistribuição de métodos Em experimento de 2013, o Facebook realizou experimento de contágio social com 689 mil usuários Provou que é possível, com pequenos ajustes na entrega de conteúdo, influenciar Positividade e Negatividade emocional bit.ly/10coisasfb
  8. 8. Plataformas de Publicidade No cenário crescentemente dominado pelas plataformas digitais e seus algoritmos surge uma exigência democrática. Tão importante quanto a liberdade de expressão é a liberdade de visualização. Todas as pessoas têm o direito de ver, ler e ouvir conteúdos políticos sem que sejam filtrados por algoritmos cujos critérios e parâmetros de operação são ocultados ou ofuscados pelas plataformas onde ocorrem os debates públicos. Sérgio Amadeu
  9. 9. A metáfora da caixa preta em estudos de tecnologia e sociedade
  10. 10. Um chatbot inteligente... O caso da Tay da Microsoft é um dos mais famosos. Lançado em 2016, foi uma persona no Twitter que a empresa buscou usar para mostrar o suposto potencial de um chatbot.
  11. 11. Um chatbot inteligente... desenvolvedores menos ainda
  12. 12. Análise de risco de reincidência criminal
  13. 13. Análise de risco de reincidência criminal https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
  14. 14. Análise de risco de reincidência criminal https://www.propublica.org/article/machine-bias-risk- assessments-in-criminal-sentencing O Procurador Geral Eric Holder declarou que “Apesar de que estas medidas são criadas com as melhores intenções, estou preocupado como elas inadvertidamente minam nossos esforços para garantir justiça individualizada e igualitária”, além de que “podem exacerbar disparidades injustificadas que já são muito comuns em nossos sistema criminal e sociedade” RéusnegrosRéusbrancos
  15. 15. Reconhecimento facial e invisibilidade
  16. 16. Visualidades e buscadores: hyper-visibilidade e invisibilidade A hipersexualização e hiper-visibilidade de garotas negras como objetos sexuais torna outros tipos de representações de garotas negras não- existentes Safiya Noble
  17. 17. Technochauvinismo Technochauvinismo é a crença de que “mais tecnologia” é sempre a solução. Geralmente vem acompanhada por crenças como meritocracia a la Ayn Rand; valores tecnolibertários; e a noção de que computadores são mais "objetivos" ou "sem viés" porque eles transformam questões e respostas em avaliação matemática; e uma fé inabalável que o mundo poderia ser melhor se tivéssemos mais e mais computadores, uma utopia digital. Meredith Broussard
  18. 18. Como combater tecnochauvinismo, discriminação algorítmica e usos nocivos da IA? Imagem
  19. 19. Injustiça é multifacetada e não tem apenas uma única fonte ou solução. É necessário uma virada reflexiva no debate sobre discriminação baseada em dados. O QUÊ? QUEM COMO Seeta Peña Gangadharan & Jędrzej Niklas
  20. 20. Papers propondo novos modelos ! Papers estudando modelos existentes ! (Epstein, 2018) Uma melhor compreensão de aittudes sobre e interações com algoritmos é essencial justamente por causa da aura de objetividade e infalibilidade que a cultura atual associa aos algoritmos. Osonde Osoba Gap no conhecimento sobre AI
  21. 21. Auditoria de Código / Datasets gendershades.org
  22. 22. Auditoria de Código / Datasets gendershades.org
  23. 23. Auditoria de Código gendershades.org
  24. 24. https://www.revealnews.org/article/heres -the-clearest-picture-of-silicon-valleys- diversity-yet Quem produz os algoritmos e plataformas?
  25. 25. https://www.revealnews.org/article/heres -the-clearest-picture-of-silicon-valleys- diversity-yet “Na medida que o mundo é cada vez mais visto através de medições formais que são geradas por algoritmos e negociadas por várias comunidades, premissas e práticas daqueles em posições analíticas (incluindo usuários que trabalham para entender seu próprio valor) tornam-se um importante recurso para entender sistemas sociotécnicos” (CARTER, 2016)
  26. 26. Pressão de funcionários
  27. 27. Pressão da sociedade civil
  28. 28. Pressão da sociedade civil
  29. 29. Arte Projeto de Dima Yarovinsky para mostrar o tamanho dos "Termos de Serviço" das principais plataformas de mídias sociais.
  30. 30. Arte CV Dazzle HyperFace
  31. 31. Literacia midiática e computacional
  32. 32. Literacia midiática e computacional
  33. 33. Instituições, legislativo e regulação “Em casos nos quais o uso de sistemas de aprendizado de máquina tem um potencial de impacto em direitos humanos, as empresas devem buscar auditoria independente dos algoritmos baseadas em padrões acorado pela indústria e framework de direitos humanos. Empresas usando aprendizado de máquina devem checar- com humanos - continuamente para identificar e consertar quaisquer vieses nos sistemas”. Lei Geral de Proteção aos Dados
  34. 34. Instituições, legislativo e regulação A governança algorítmica tende a ser cada vez mais presente – comunicadores e cientistas sociais devem mergulhar na temática para agir junto a desenvolvedores e legisladores pra analisar: • Danos individuais • Discriminação ilegal e práticas injustas • Perda de oportunidades • Perdas econômicas • Estigmatização social
  35. 35. Sistemas abertos, open source, midialivrismo ”But for all the good we've achieved, the web has evolved into an engine of inequity and division; swayed by powerful forces who use it for their own agendas“ – Tim Berners-Lee
  36. 36. As coisas são tem e fazem políticas Racismo algorítmico Maconha e encarceramento Pílulas anti-concepcionais e políticas de gênero Pontes, urbanismo e segregação
  37. 37. Referências BROUSSARD, Meredith. Artificial unintelligence: how computers misunderstand the world. MIT Press, 2018. BUOLAMWINI, Joy; GEBRU, Timnit. Gender shades: Intersectional accuracy disparities in commercial gender classification. In: Conference on Fairness, Accountability and Transparency. 2018. p. 77-91. EPSTEIN, Ziv et al. Closing the AI Knowledge Gap. arXiv preprint arXiv:1803.07233, 2018. ESLAMI, Motahhare et al. I always assumed that I wasn't really that close to [her]: Reasoning about Invisible Algorithms in News Feeds. In: Proceedings of the 33rd annual ACM conference on human factors in computing systems. ACM, 2015. p. 153-162. GANGADHARAN, Seeta Peña; NIKLAS, Jędrzej. Decentering technology in discourse on discrimination. Information, Communication & Society, v. 22, n. 7, p. 882-899, 2019. NAPOLI, Philip; CAPLAN, Robyn. Why media companies insist they're not media companies, why they're wrong, and why it matters. First Monday, v. 22, n. 5, 2017. NOBLE, Safiya Umoja. Google search: Hyper-visibility as a means of rendering black women and girls invisible. InVisible Culture, n. 19, 2013. OSOBA, Osonde A.; WELSER IV, William. An intelligence in our image: The risks of bias and errors in artificial intelligence. Rand Corporation, 2017. RIEDER, Bernhard; MATAMOROS-FERNÁNDEZ, Ariadna; COROMINA, Òscar. From ranking algorithms to ‘ranking cultures’ Investigating the modulation of visibility in YouTube search results. Convergence, v. 24, n. 1, p. 50-68, 2018. SANDVIG, Christian et al. Auditing algorithms: Research methods for detecting discrimination on internet platforms. Data and discrimination: converting critical concerns into productive inquiry, p. 1-23, 2014. SILVEIRA, Sérgio. Democracia e os códigos invisíveis: Como os algoritmos estão modulando comportamentos e escolhas políticas. Edições SESCP SP, 2019. SRNICEK, Nick. Platform capitalism. John Wiley & Sons, 2017.

×