Copy
Somando-se aos números sobre hip-hop, Covid-19 e afrofuturismo, o disparo #42 de nossa newsletter é novamente especial e temático! Carla Vieira, pesquisadora e mestranda em inteligência artificial, nos presenteia um número especial sobre explicabilidade na IA - confira tudo e leia mais sobre a curadora ao final:
EXPLICABILIDADE, (IN)JUSTIÇA E VALORES NA INTELIGÊNCIA ARTIFICIAL:
Papéis para a Computação na Mudança Social (em inglês)
Computadores, algoritmos e inteligência artificial afetam todos os aspectos da sociedade. No entanto, apesar de seu enorme poder, os computadores têm limites fundamentais sobre o que podem ou não resolver.  Alguns cientistas acreditam que as melhorias nos algoritmos de inteligência artificial não levarão necessariamente à construção de sistemas algorítmicos éticos e responsáveis. Outros afirmam que, embora a IA ética seja um problema importante no futuro, está fora do escopo da pesquisa em computação. 
O artigo em destaque da newsletter de hoje reflete sobre os papéis que a pesquisa em computação pode assumir para endereçar problemas sociais complexos a partir de uma visão crítica e sócio técnica que busca fugir do “tecno-solucionismo”.
O texto pode ser visto como uma autorreflexão dos autores, em grande parte cientistas da computação, sobre a contribuição social a que servem suas pesquisas. A reflexão permite chegar à definição de 4 papéis essenciais: (1) diagnóstico: ajudando a compreender problemas sociais; (2) formalização: definindo problemas sociais e mudando como suas possíveis soluções são compreendidas; (3) refutação: quando permite identificar as suas impossibilidades e limites e (4) sinédoque: quando torna problemas sociais mais evidentes para a sociedade.
Presença africana e teoria crítica na tecnologia
Neste trabalho, Ivo Pereira de Queiroz e Gilson Leandro Queluz buscam entender as conexões entre o conceito de reconhecimento de Frantz Fanon, em Pele negra máscaras brancas e a participação do povo negro na tecnologia.
O trabalho também analisa o determinismo tecnológico como uma possível ferramenta de opressão a partir da Teoria crítica da tecnologia, de Andrew Feenberg. Em seus trabalhos, Feenberg argumenta a favor da dimensão social da tecnologia, mostrando que não existe neutralidade em ferramentas computacionais: desmantelando os argumentos a favor do determinismo tecnológico.
Os autores também destacam a visão de Feenberg sobre a importância da democratização da tecnologia, permitindo que a sociedade questione, participe e tome parte na construção de novos futuros.
Deletar datasets antiéticos não é suficiente
Durante muitos anos, utilizou-se raspagem de dados para construir datasets utilizados em algoritmos de inteligência artificial. No entanto, a prática fere princípios de privacidade e proteção de dados pessoais. Como resultado, diversos foram removidos. Um estudo demonstrou que a remoção desses datasets não resolve todos os problemas.. Os autores mostraram como esses datasets antiéticos foram copiados, usados e reaproveitados em cerca de 1.000 artigos da área de computação. A cultura dentro da comunidade científica de computação é presumir que dados existem para serem usados. O estudo mostra como isso pode levar a problemas no futuro e como a ciência da computação tem falhado em resolver os problemas que ela mesma cria.
Sobre a (im)possibilidade de alcançar justiça 
Cientistas da computação têm buscado desenvolver ferramentas para corrigir discriminações algorítmicas e garantir o princípio de fairness. A área de pesquisa de justiça algorítmica contém muitas propostas sobre como evitar que algoritmos aprendam preconceitos e como projetar algoritmos que são “justos”. No entanto, a pergunta básica "O que significa um algoritmo ser justo?" tem sido pouco explorada. 
Mechanism Design for Social Good
O MD4SG é uma iniciativa internacional que reúne pesquisadores e profissionais de mais de 130 instituições em 50 países. Fundada em 2016 como um grupo de leitura, a iniciativa hoje atua com grupos de trabalho que reúnem pesquisadores acadêmicos de várias disciplinas e sociedade civil para resolver problemas sociais do mundo real por meio de grupos de trabalho online. Os materiais utilizados pelos grupos, notas dos encontros e uma lista de sugestão de leituras são disponibilizados ao público.
Os valores codificados na pesquisa em aprendizado de máquina
Nos últimos anos, a suposta neutralidade da tecnologia, legitimadora de modelos decisórios tecnocráticos, tem sido questionada por pesquisadores em todo o mundo. Os autores do artigo defendem rejeitar esse conceito e decidiram investigar formas como a área de Aprendizado de Máquina é inerentemente carregada de valores. 
O artigo apresenta uma análise (quantitativa e qualitativa) de 100 artigos da área de Inteligência Artificial, publicados nas principais conferências, como: ICML e NeurIPS. São identificados 67 valores aplicados a pesquisas de aprendizado de máquina, e, descobriu-se que os valores mais utilizados se justificam com base no desempenho, eficiência e inovação. Estes valores comumente utilizados sinalizam os desafios para a ciência da computação em descentralizar o poder e decolonizar a área.
Quem se beneficia ou é prejudicado pela visão computacional?
Em uma apresentação no workshop “Fairness Accountability Transparency and Ethics in Computer Vision” durante a conferência CVPR, Timnit Gebru fala sobre os riscos da visão computacional e os danos causados a grupos historicamente marginalizados. Um ponto de destaque da fala de Gebru é direcionado a cientistas e pesquisadores da computação: “Justiça não é apenas sobre datasets, e não é apenas sobre matemática. Justiça também diz respeito à sociedade e, como engenheiros, como cientistas, não podemos fugir desse fato”, disse Gebru no tutorial.
Injustiça algorítmica: uma perspectiva relacional
O artigo de Birhane representa um apelo para que cientistas da computação tenham uma visão mais crítica do campo. O artigo propõe uma mudança de pensamento com relação a ética em Inteligência Artificial, levando o conceito para além de soluções técnicas. A autora apresenta o conceito de ética relacional que nos convida questionar assimetrias de poder, desigualdades e hierarquias da nossa sociedade também presentes nas tecnologias.
 
PARA (RE)DESCOBRIR E CITAR REFERÊNCIAS:
Rediet Abebe
Professora de Ciência da Computação na Universidade da Califórnia (Berkeley) e co-fundadora da comunidade Black in AI, Rediet Abebe pesquisa como utilizar algoritmos de Inteligência Artificial em benefício da sociedade e reduzir desigualdades. Entre seus principais trabalhos, estão: “Mechanism Design for Social Good”, “Designing Algorithms for Social Good”, “Narratives and Counternarratives on Data Sharing in Africa” e “Using search queries to understand health information needs in africa
Arvind Narayanan
Professor de Ciência da Computação na Universidade Princeton, Arvind Narayanan pesquisa o impacto das tecnologias na sociedade com foco nas ameaças à privacidade. Entre seus principais trabalhos, estão: “How to Recognize AI Snake Oil’”, “Data as a mirror of society: lessons from the emerging science of fairness in machine learning” e “Fairness and machine learning: limitations and opportunities
AUTORA DESTE NÚMERO ESPECIAL:
Carla Vieira
Mestranda em Inteligência Artificial pela USP e co-fundadora da comunidade perifaCode, Carla Vieira pesquisa como utilizar a computação como ferramenta no combate à discriminação algorítmica com base em técnicas de interpretabilidade. Em destaque para conhecer mais seu trabalho: “Entrevista para o InternetLab”, “Inteligência Artificial: a caixa preta que prejudica as minorias”, "Discriminações e (In)visibilidades algorítmicas: tecnologia, raça e gênero" e "Algoritmos de Opressão: como algoritmos de inteligência artificial ampliam desigualdades de gênero e raça".
 
COLABORE:
Escreva um número da newsletter
Você é graduanda/o, mestranda/o ou doutoranda/o e quer escrever um número temático da newsletter da Desvelar? Clica acima e conta pra gente.
Livros da Desvelar
A Desvelar desenvolve publicações como Comunidades, Algoritmos e Ativismos Digitais: olhares afrodiaspóricos. Disponível para compra ou download, a obra reúne 14 capítulos sobre tecnologia e internet com autoras de Brasil, EUA, Gana, Nigéria, Etiópia e mais. A próxima coletânea já está no forno, apoie para que se tornem em muitas! :)
Tuite Tuite
Envie pras amizades Envie pras amizades
Compartilhe Compartilhe
Twitter
Website
LinkedIn
Link
YouTube
Copyright © 2021 Desvelar, All rights reserved.


Want to change how you receive these emails?
You can update your preferences or unsubscribe from this list.

Email Marketing Powered by Mailchimp