Abrindo as caixas-pretas:
reações à (des)inteligência artificial
Tarcízio Silva
Tarcízio Silva
• Doutorando em Ciências Humanas e Sociais pela UFABC
• Curador e pesquisador da Desvelar – Conhecimento
Afrodiaspórico
• Mestre em Comunicação pela UFBA
• Sócio e Editor no Instituto Brasileiro de Pesquisa e Análise de
Dados
• Co-organizador de livros como “Estudando Cultura e Comunicação
com Mídias Sociais” (Editora IBPAD, 2018); “Monitoramento e Pesquisa em
Mídias Sociais: metodologias, aplicações e inovações” (Uva Limão, 2016); e
“Para Entender o Monitoramento de Mídias Sociais (Bookess, 2012).
tarciziosilva.com.br
Ecossistema digital
e o “big five”
(VAN DIJCK, POELL & DE WALL, 2018)
Capitalismo de Plataforma
Plataformas de
Publicidade
Plataformas de
Nuvem
Plataformas de
Produto e
“Lean”
Plataformas
Self/Afetivas
Plataformas
Industriais
Nick Srnicek
Plataformização da Web e sociedade
O sistema de plataformas é baseado em
paradoxos entre práticas e discursos. Vende-
se como igualitário, mas é hierárquico. É
altamente corporativo, mas aparente servir
aos valores públicos. Parece neutro e
agnóstico, mas seu desenho carrega um
conjunto de valores. Parece substituir a
direção “top down” de governos e estado,
mas a substitui com estrutura centralizada e
mais opaca ainda a seus usuários
Djick, Poell & De Wall, 2018
“Paradoxos”
egualitário x hierárquico
corporações x valor público
neutro x valores ideológicos
local x global
top-down x bottom-up
abertura x opacidade
Plataformas e a redistribuição de métodos
https://www.nature.com/articles/nature11421
Facebook gerou 340 mil votos a mais nas
eleições de 2012 apenas com um
pequeno ajuste de interface
Plataformas e a redistribuição de métodos
Em experimento de 2013, o Facebook
realizou experimento de contágio social
com 689 mil usuários
Provou que é possível, com pequenos
ajustes na entrega de conteúdo,
influenciar Positividade e Negatividade
emocional
bit.ly/10coisasfb
Plataformas de Publicidade
No cenário crescentemente dominado
pelas plataformas digitais e seus
algoritmos surge uma exigência
democrática. Tão importante quanto a
liberdade de expressão é a liberdade de
visualização. Todas as pessoas têm o
direito de ver, ler e ouvir conteúdos
políticos sem que sejam filtrados por
algoritmos cujos critérios e parâmetros
de operação são ocultados ou
ofuscados pelas plataformas onde
ocorrem os debates públicos.
Sérgio Amadeu
A metáfora da caixa preta em estudos de tecnologia e sociedade
Um chatbot inteligente...
O caso da Tay da Microsoft é um dos mais
famosos. Lançado em 2016, foi uma
persona no Twitter que a empresa buscou
usar para mostrar o suposto potencial de
um chatbot.
Um chatbot inteligente... desenvolvedores menos ainda
Análise de risco de reincidência criminal
Análise de risco de reincidência criminal
https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
Análise de risco de reincidência criminal
https://www.propublica.org/article/machine-bias-risk-
assessments-in-criminal-sentencing
O Procurador Geral Eric Holder declarou que
“Apesar de que estas medidas são criadas com as
melhores intenções, estou preocupado como elas
inadvertidamente minam nossos esforços para
garantir justiça individualizada e igualitária”, além
de que “podem exacerbar disparidades
injustificadas que já são muito comuns em
nossos sistema criminal e sociedade”
RéusnegrosRéusbrancos
Reconhecimento facial e invisibilidade
Visualidades e buscadores: hyper-visibilidade e invisibilidade
A hipersexualização e
hiper-visibilidade de
garotas negras como
objetos sexuais torna
outros tipos de
representações de
garotas negras não-
existentes
Safiya Noble
Technochauvinismo
Technochauvinismo é a crença de que “mais
tecnologia” é sempre a solução. Geralmente vem
acompanhada por crenças como meritocracia a la
Ayn Rand; valores tecnolibertários; e a noção de
que computadores são mais "objetivos" ou "sem
viés" porque eles transformam questões e
respostas em avaliação matemática; e uma fé
inabalável que o mundo poderia ser melhor se
tivéssemos mais e mais computadores, uma
utopia digital.
Meredith Broussard
Como combater
tecnochauvinismo,
discriminação
algorítmica e usos
nocivos da IA?
Imagem
Injustiça é multifacetada e não
tem apenas uma única fonte ou
solução. É necessário uma
virada reflexiva no debate sobre
discriminação baseada em
dados.
O QUÊ?
QUEM
COMO
Seeta Peña Gangadharan & Jędrzej Niklas
Papers propondo
novos modelos
! Papers estudando
modelos existentes
!
(Epstein, 2018)
Uma melhor
compreensão de aittudes
sobre e interações com
algoritmos é essencial
justamente por causa da
aura de objetividade e
infalibilidade que a
cultura atual associa aos
algoritmos.
Osonde Osoba
Gap no conhecimento sobre AI
Auditoria de Código / Datasets
gendershades.org
Auditoria de Código / Datasets
gendershades.org
Auditoria de Código
gendershades.org
https://www.revealnews.org/article/heres
-the-clearest-picture-of-silicon-valleys-
diversity-yet
Quem produz os algoritmos
e plataformas?
https://www.revealnews.org/article/heres
-the-clearest-picture-of-silicon-valleys-
diversity-yet
“Na medida que o mundo é
cada vez mais visto através de
medições formais que são
geradas por algoritmos e
negociadas por várias
comunidades, premissas e
práticas daqueles em posições
analíticas (incluindo usuários
que trabalham para entender
seu próprio valor) tornam-se
um importante recurso para
entender sistemas
sociotécnicos” (CARTER, 2016)
Pressão de funcionários
Pressão da sociedade civil
Pressão da sociedade civil
Arte
Projeto de Dima Yarovinsky
para mostrar o tamanho dos
"Termos de Serviço" das
principais plataformas de
mídias sociais.
Arte
CV Dazzle HyperFace
Literacia midiática e computacional
Literacia midiática e computacional
Instituições, legislativo e regulação
“Em casos nos quais o uso de
sistemas de aprendizado de
máquina tem um potencial de
impacto em direitos humanos,
as empresas devem buscar
auditoria independente dos
algoritmos baseadas em
padrões acorado pela
indústria e framework de
direitos humanos. Empresas
usando aprendizado de
máquina devem checar- com
humanos - continuamente
para identificar e consertar
quaisquer vieses nos
sistemas”.
Lei Geral de Proteção aos Dados
Instituições, legislativo e regulação
A governança algorítmica tende a ser cada
vez mais presente – comunicadores e
cientistas sociais devem mergulhar na
temática para agir junto a desenvolvedores e
legisladores pra analisar:
• Danos individuais
• Discriminação ilegal e práticas injustas
• Perda de oportunidades
• Perdas econômicas
• Estigmatização social
Sistemas abertos, open source, midialivrismo
”But for all the good we've
achieved, the web has evolved
into an engine of inequity and
division; swayed by powerful
forces who use it for their own
agendas“ – Tim Berners-Lee
As coisas
são
tem
e fazem
políticas
Racismo algorítmico
Maconha e
encarceramento
Pílulas anti-concepcionais
e políticas de gênero
Pontes, urbanismo e
segregação
Referências
BROUSSARD, Meredith. Artificial unintelligence: how computers misunderstand the world. MIT Press, 2018.
BUOLAMWINI, Joy; GEBRU, Timnit. Gender shades: Intersectional accuracy disparities in commercial gender classification. In: Conference on Fairness,
Accountability and Transparency. 2018. p. 77-91.
EPSTEIN, Ziv et al. Closing the AI Knowledge Gap. arXiv preprint arXiv:1803.07233, 2018.
ESLAMI, Motahhare et al. I always assumed that I wasn't really that close to [her]: Reasoning about Invisible Algorithms in News Feeds. In: Proceedings of the
33rd annual ACM conference on human factors in computing systems. ACM, 2015. p. 153-162.
GANGADHARAN, Seeta Peña; NIKLAS, Jędrzej. Decentering technology in discourse on discrimination. Information, Communication & Society, v. 22, n. 7, p.
882-899, 2019.
NAPOLI, Philip; CAPLAN, Robyn. Why media companies insist they're not media companies, why they're wrong, and why it matters. First Monday, v. 22, n. 5,
2017.
NOBLE, Safiya Umoja. Google search: Hyper-visibility as a means of rendering black women and girls invisible. InVisible Culture, n. 19, 2013.
OSOBA, Osonde A.; WELSER IV, William. An intelligence in our image: The risks of bias and errors in artificial intelligence. Rand Corporation, 2017.
RIEDER, Bernhard; MATAMOROS-FERNÁNDEZ, Ariadna; COROMINA, Òscar. From ranking algorithms to ‘ranking cultures’ Investigating the modulation of
visibility in YouTube search results. Convergence, v. 24, n. 1, p. 50-68, 2018.
SANDVIG, Christian et al. Auditing algorithms: Research methods for detecting discrimination on internet platforms. Data and discrimination: converting critical
concerns into productive inquiry, p. 1-23, 2014.
SILVEIRA, Sérgio. Democracia e os códigos invisíveis: Como os algoritmos estão modulando comportamentos e escolhas políticas. Edições SESCP SP, 2019.
SRNICEK, Nick. Platform capitalism. John Wiley & Sons, 2017.

Abrindo as caixas-pretas: reações à (des)inteligência artificial

  • 1.
    Abrindo as caixas-pretas: reaçõesà (des)inteligência artificial Tarcízio Silva
  • 2.
    Tarcízio Silva • Doutorandoem Ciências Humanas e Sociais pela UFABC • Curador e pesquisador da Desvelar – Conhecimento Afrodiaspórico • Mestre em Comunicação pela UFBA • Sócio e Editor no Instituto Brasileiro de Pesquisa e Análise de Dados • Co-organizador de livros como “Estudando Cultura e Comunicação com Mídias Sociais” (Editora IBPAD, 2018); “Monitoramento e Pesquisa em Mídias Sociais: metodologias, aplicações e inovações” (Uva Limão, 2016); e “Para Entender o Monitoramento de Mídias Sociais (Bookess, 2012). tarciziosilva.com.br
  • 3.
    Ecossistema digital e o“big five” (VAN DIJCK, POELL & DE WALL, 2018)
  • 4.
    Capitalismo de Plataforma Plataformasde Publicidade Plataformas de Nuvem Plataformas de Produto e “Lean” Plataformas Self/Afetivas Plataformas Industriais Nick Srnicek
  • 5.
    Plataformização da Webe sociedade O sistema de plataformas é baseado em paradoxos entre práticas e discursos. Vende- se como igualitário, mas é hierárquico. É altamente corporativo, mas aparente servir aos valores públicos. Parece neutro e agnóstico, mas seu desenho carrega um conjunto de valores. Parece substituir a direção “top down” de governos e estado, mas a substitui com estrutura centralizada e mais opaca ainda a seus usuários Djick, Poell & De Wall, 2018 “Paradoxos” egualitário x hierárquico corporações x valor público neutro x valores ideológicos local x global top-down x bottom-up abertura x opacidade
  • 6.
    Plataformas e aredistribuição de métodos https://www.nature.com/articles/nature11421 Facebook gerou 340 mil votos a mais nas eleições de 2012 apenas com um pequeno ajuste de interface
  • 7.
    Plataformas e aredistribuição de métodos Em experimento de 2013, o Facebook realizou experimento de contágio social com 689 mil usuários Provou que é possível, com pequenos ajustes na entrega de conteúdo, influenciar Positividade e Negatividade emocional bit.ly/10coisasfb
  • 8.
    Plataformas de Publicidade Nocenário crescentemente dominado pelas plataformas digitais e seus algoritmos surge uma exigência democrática. Tão importante quanto a liberdade de expressão é a liberdade de visualização. Todas as pessoas têm o direito de ver, ler e ouvir conteúdos políticos sem que sejam filtrados por algoritmos cujos critérios e parâmetros de operação são ocultados ou ofuscados pelas plataformas onde ocorrem os debates públicos. Sérgio Amadeu
  • 9.
    A metáfora dacaixa preta em estudos de tecnologia e sociedade
  • 10.
    Um chatbot inteligente... Ocaso da Tay da Microsoft é um dos mais famosos. Lançado em 2016, foi uma persona no Twitter que a empresa buscou usar para mostrar o suposto potencial de um chatbot.
  • 11.
    Um chatbot inteligente...desenvolvedores menos ainda
  • 12.
    Análise de riscode reincidência criminal
  • 13.
    Análise de riscode reincidência criminal https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
  • 14.
    Análise de riscode reincidência criminal https://www.propublica.org/article/machine-bias-risk- assessments-in-criminal-sentencing O Procurador Geral Eric Holder declarou que “Apesar de que estas medidas são criadas com as melhores intenções, estou preocupado como elas inadvertidamente minam nossos esforços para garantir justiça individualizada e igualitária”, além de que “podem exacerbar disparidades injustificadas que já são muito comuns em nossos sistema criminal e sociedade” RéusnegrosRéusbrancos
  • 15.
  • 16.
    Visualidades e buscadores:hyper-visibilidade e invisibilidade A hipersexualização e hiper-visibilidade de garotas negras como objetos sexuais torna outros tipos de representações de garotas negras não- existentes Safiya Noble
  • 17.
    Technochauvinismo Technochauvinismo é acrença de que “mais tecnologia” é sempre a solução. Geralmente vem acompanhada por crenças como meritocracia a la Ayn Rand; valores tecnolibertários; e a noção de que computadores são mais "objetivos" ou "sem viés" porque eles transformam questões e respostas em avaliação matemática; e uma fé inabalável que o mundo poderia ser melhor se tivéssemos mais e mais computadores, uma utopia digital. Meredith Broussard
  • 18.
  • 19.
    Injustiça é multifacetadae não tem apenas uma única fonte ou solução. É necessário uma virada reflexiva no debate sobre discriminação baseada em dados. O QUÊ? QUEM COMO Seeta Peña Gangadharan & Jędrzej Niklas
  • 20.
    Papers propondo novos modelos !Papers estudando modelos existentes ! (Epstein, 2018) Uma melhor compreensão de aittudes sobre e interações com algoritmos é essencial justamente por causa da aura de objetividade e infalibilidade que a cultura atual associa aos algoritmos. Osonde Osoba Gap no conhecimento sobre AI
  • 21.
    Auditoria de Código/ Datasets gendershades.org
  • 22.
    Auditoria de Código/ Datasets gendershades.org
  • 23.
  • 24.
  • 25.
    https://www.revealnews.org/article/heres -the-clearest-picture-of-silicon-valleys- diversity-yet “Na medida queo mundo é cada vez mais visto através de medições formais que são geradas por algoritmos e negociadas por várias comunidades, premissas e práticas daqueles em posições analíticas (incluindo usuários que trabalham para entender seu próprio valor) tornam-se um importante recurso para entender sistemas sociotécnicos” (CARTER, 2016)
  • 26.
  • 27.
  • 28.
  • 29.
    Arte Projeto de DimaYarovinsky para mostrar o tamanho dos "Termos de Serviço" das principais plataformas de mídias sociais.
  • 30.
  • 31.
  • 32.
  • 33.
    Instituições, legislativo eregulação “Em casos nos quais o uso de sistemas de aprendizado de máquina tem um potencial de impacto em direitos humanos, as empresas devem buscar auditoria independente dos algoritmos baseadas em padrões acorado pela indústria e framework de direitos humanos. Empresas usando aprendizado de máquina devem checar- com humanos - continuamente para identificar e consertar quaisquer vieses nos sistemas”. Lei Geral de Proteção aos Dados
  • 34.
    Instituições, legislativo eregulação A governança algorítmica tende a ser cada vez mais presente – comunicadores e cientistas sociais devem mergulhar na temática para agir junto a desenvolvedores e legisladores pra analisar: • Danos individuais • Discriminação ilegal e práticas injustas • Perda de oportunidades • Perdas econômicas • Estigmatização social
  • 35.
    Sistemas abertos, opensource, midialivrismo ”But for all the good we've achieved, the web has evolved into an engine of inequity and division; swayed by powerful forces who use it for their own agendas“ – Tim Berners-Lee
  • 36.
    As coisas são tem e fazem políticas Racismoalgorítmico Maconha e encarceramento Pílulas anti-concepcionais e políticas de gênero Pontes, urbanismo e segregação
  • 37.
    Referências BROUSSARD, Meredith. Artificialunintelligence: how computers misunderstand the world. MIT Press, 2018. BUOLAMWINI, Joy; GEBRU, Timnit. Gender shades: Intersectional accuracy disparities in commercial gender classification. In: Conference on Fairness, Accountability and Transparency. 2018. p. 77-91. EPSTEIN, Ziv et al. Closing the AI Knowledge Gap. arXiv preprint arXiv:1803.07233, 2018. ESLAMI, Motahhare et al. I always assumed that I wasn't really that close to [her]: Reasoning about Invisible Algorithms in News Feeds. In: Proceedings of the 33rd annual ACM conference on human factors in computing systems. ACM, 2015. p. 153-162. GANGADHARAN, Seeta Peña; NIKLAS, Jędrzej. Decentering technology in discourse on discrimination. Information, Communication & Society, v. 22, n. 7, p. 882-899, 2019. NAPOLI, Philip; CAPLAN, Robyn. Why media companies insist they're not media companies, why they're wrong, and why it matters. First Monday, v. 22, n. 5, 2017. NOBLE, Safiya Umoja. Google search: Hyper-visibility as a means of rendering black women and girls invisible. InVisible Culture, n. 19, 2013. OSOBA, Osonde A.; WELSER IV, William. An intelligence in our image: The risks of bias and errors in artificial intelligence. Rand Corporation, 2017. RIEDER, Bernhard; MATAMOROS-FERNÁNDEZ, Ariadna; COROMINA, Òscar. From ranking algorithms to ‘ranking cultures’ Investigating the modulation of visibility in YouTube search results. Convergence, v. 24, n. 1, p. 50-68, 2018. SANDVIG, Christian et al. Auditing algorithms: Research methods for detecting discrimination on internet platforms. Data and discrimination: converting critical concerns into productive inquiry, p. 1-23, 2014. SILVEIRA, Sérgio. Democracia e os códigos invisíveis: Como os algoritmos estão modulando comportamentos e escolhas políticas. Edições SESCP SP, 2019. SRNICEK, Nick. Platform capitalism. John Wiley & Sons, 2017.