1) O documento discute os riscos e vieses dos sistemas de inteligência artificial e como eles podem exacerbar desigualdades.
2) É necessário maior transparência dos algoritmos e auditagem de códigos e dados para identificar e corrigir possíveis vieses.
3) Literacia digital e pressão da sociedade civil podem ajudar a promover o desenvolvimento responsável da inteligência artificial.
2. Tarcízio Silva
• Doutorando em Ciências Humanas e Sociais pela UFABC
• Curador e pesquisador da Desvelar – Conhecimento
Afrodiaspórico
• Mestre em Comunicação pela UFBA
• Sócio e Editor no Instituto Brasileiro de Pesquisa e Análise de
Dados
• Co-organizador de livros como “Estudando Cultura e Comunicação
com Mídias Sociais” (Editora IBPAD, 2018); “Monitoramento e Pesquisa em
Mídias Sociais: metodologias, aplicações e inovações” (Uva Limão, 2016); e
“Para Entender o Monitoramento de Mídias Sociais (Bookess, 2012).
tarciziosilva.com.br
4. Capitalismo de Plataforma
Plataformas de
Publicidade
Plataformas de
Nuvem
Plataformas de
Produto e
“Lean”
Plataformas
Self/Afetivas
Plataformas
Industriais
Nick Srnicek
5. Plataformização da Web e sociedade
O sistema de plataformas é baseado em
paradoxos entre práticas e discursos. Vende-
se como igualitário, mas é hierárquico. É
altamente corporativo, mas aparente servir
aos valores públicos. Parece neutro e
agnóstico, mas seu desenho carrega um
conjunto de valores. Parece substituir a
direção “top down” de governos e estado,
mas a substitui com estrutura centralizada e
mais opaca ainda a seus usuários
Djick, Poell & De Wall, 2018
“Paradoxos”
egualitário x hierárquico
corporações x valor público
neutro x valores ideológicos
local x global
top-down x bottom-up
abertura x opacidade
6. Plataformas e a redistribuição de métodos
https://www.nature.com/articles/nature11421
Facebook gerou 340 mil votos a mais nas
eleições de 2012 apenas com um
pequeno ajuste de interface
7. Plataformas e a redistribuição de métodos
Em experimento de 2013, o Facebook
realizou experimento de contágio social
com 689 mil usuários
Provou que é possível, com pequenos
ajustes na entrega de conteúdo,
influenciar Positividade e Negatividade
emocional
bit.ly/10coisasfb
8. Plataformas de Publicidade
No cenário crescentemente dominado
pelas plataformas digitais e seus
algoritmos surge uma exigência
democrática. Tão importante quanto a
liberdade de expressão é a liberdade de
visualização. Todas as pessoas têm o
direito de ver, ler e ouvir conteúdos
políticos sem que sejam filtrados por
algoritmos cujos critérios e parâmetros
de operação são ocultados ou
ofuscados pelas plataformas onde
ocorrem os debates públicos.
Sérgio Amadeu
9. A metáfora da caixa preta em estudos de tecnologia e sociedade
10. Um chatbot inteligente...
O caso da Tay da Microsoft é um dos mais
famosos. Lançado em 2016, foi uma
persona no Twitter que a empresa buscou
usar para mostrar o suposto potencial de
um chatbot.
13. Análise de risco de reincidência criminal
https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
14. Análise de risco de reincidência criminal
https://www.propublica.org/article/machine-bias-risk-
assessments-in-criminal-sentencing
O Procurador Geral Eric Holder declarou que
“Apesar de que estas medidas são criadas com as
melhores intenções, estou preocupado como elas
inadvertidamente minam nossos esforços para
garantir justiça individualizada e igualitária”, além
de que “podem exacerbar disparidades
injustificadas que já são muito comuns em
nossos sistema criminal e sociedade”
RéusnegrosRéusbrancos
16. Visualidades e buscadores: hyper-visibilidade e invisibilidade
A hipersexualização e
hiper-visibilidade de
garotas negras como
objetos sexuais torna
outros tipos de
representações de
garotas negras não-
existentes
Safiya Noble
17. Technochauvinismo
Technochauvinismo é a crença de que “mais
tecnologia” é sempre a solução. Geralmente vem
acompanhada por crenças como meritocracia a la
Ayn Rand; valores tecnolibertários; e a noção de
que computadores são mais "objetivos" ou "sem
viés" porque eles transformam questões e
respostas em avaliação matemática; e uma fé
inabalável que o mundo poderia ser melhor se
tivéssemos mais e mais computadores, uma
utopia digital.
Meredith Broussard
19. Injustiça é multifacetada e não
tem apenas uma única fonte ou
solução. É necessário uma
virada reflexiva no debate sobre
discriminação baseada em
dados.
O QUÊ?
QUEM
COMO
Seeta Peña Gangadharan & Jędrzej Niklas
20. Papers propondo
novos modelos
! Papers estudando
modelos existentes
!
(Epstein, 2018)
Uma melhor
compreensão de aittudes
sobre e interações com
algoritmos é essencial
justamente por causa da
aura de objetividade e
infalibilidade que a
cultura atual associa aos
algoritmos.
Osonde Osoba
Gap no conhecimento sobre AI
33. Instituições, legislativo e regulação
“Em casos nos quais o uso de
sistemas de aprendizado de
máquina tem um potencial de
impacto em direitos humanos,
as empresas devem buscar
auditoria independente dos
algoritmos baseadas em
padrões acorado pela
indústria e framework de
direitos humanos. Empresas
usando aprendizado de
máquina devem checar- com
humanos - continuamente
para identificar e consertar
quaisquer vieses nos
sistemas”.
Lei Geral de Proteção aos Dados
34. Instituições, legislativo e regulação
A governança algorítmica tende a ser cada
vez mais presente – comunicadores e
cientistas sociais devem mergulhar na
temática para agir junto a desenvolvedores e
legisladores pra analisar:
• Danos individuais
• Discriminação ilegal e práticas injustas
• Perda de oportunidades
• Perdas econômicas
• Estigmatização social
35. Sistemas abertos, open source, midialivrismo
”But for all the good we've
achieved, the web has evolved
into an engine of inequity and
division; swayed by powerful
forces who use it for their own
agendas“ – Tim Berners-Lee
37. Referências
BROUSSARD, Meredith. Artificial unintelligence: how computers misunderstand the world. MIT Press, 2018.
BUOLAMWINI, Joy; GEBRU, Timnit. Gender shades: Intersectional accuracy disparities in commercial gender classification. In: Conference on Fairness,
Accountability and Transparency. 2018. p. 77-91.
EPSTEIN, Ziv et al. Closing the AI Knowledge Gap. arXiv preprint arXiv:1803.07233, 2018.
ESLAMI, Motahhare et al. I always assumed that I wasn't really that close to [her]: Reasoning about Invisible Algorithms in News Feeds. In: Proceedings of the
33rd annual ACM conference on human factors in computing systems. ACM, 2015. p. 153-162.
GANGADHARAN, Seeta Peña; NIKLAS, Jędrzej. Decentering technology in discourse on discrimination. Information, Communication & Society, v. 22, n. 7, p.
882-899, 2019.
NAPOLI, Philip; CAPLAN, Robyn. Why media companies insist they're not media companies, why they're wrong, and why it matters. First Monday, v. 22, n. 5,
2017.
NOBLE, Safiya Umoja. Google search: Hyper-visibility as a means of rendering black women and girls invisible. InVisible Culture, n. 19, 2013.
OSOBA, Osonde A.; WELSER IV, William. An intelligence in our image: The risks of bias and errors in artificial intelligence. Rand Corporation, 2017.
RIEDER, Bernhard; MATAMOROS-FERNÁNDEZ, Ariadna; COROMINA, Òscar. From ranking algorithms to ‘ranking cultures’ Investigating the modulation of
visibility in YouTube search results. Convergence, v. 24, n. 1, p. 50-68, 2018.
SANDVIG, Christian et al. Auditing algorithms: Research methods for detecting discrimination on internet platforms. Data and discrimination: converting critical
concerns into productive inquiry, p. 1-23, 2014.
SILVEIRA, Sérgio. Democracia e os códigos invisíveis: Como os algoritmos estão modulando comportamentos e escolhas políticas. Edições SESCP SP, 2019.
SRNICEK, Nick. Platform capitalism. John Wiley & Sons, 2017.