Somando-se aos números sobre hip-hop, Covid-19 e afrofuturismo, o disparo #42 de nossa newsletter é novamente especial e temático! Carla Vieira, pesquisadora e mestranda em inteligência artificial, nos presenteia um número especial sobre explicabilidade na IA - confira tudo e leia mais sobre a curadora ao final:
|
|
EXPLICABILIDADE, (IN)JUSTIÇA E VALORES NA INTELIGÊNCIA ARTIFICIAL:
|
|
|
|
Papéis para a Computação na Mudança Social (em inglês)
Computadores, algoritmos e inteligência artificial afetam todos os aspectos da sociedade. No entanto, apesar de seu enorme poder, os computadores têm limites fundamentais sobre o que podem ou não resolver. Alguns cientistas acreditam que as melhorias nos algoritmos de inteligência artificial não levarão necessariamente à construção de sistemas algorítmicos éticos e responsáveis. Outros afirmam que, embora a IA ética seja um problema importante no futuro, está fora do escopo da pesquisa em computação.
O artigo em destaque da newsletter de hoje reflete sobre os papéis que a pesquisa em computação pode assumir para endereçar problemas sociais complexos a partir de uma visão crítica e sócio técnica que busca fugir do “tecno-solucionismo”.
O texto pode ser visto como uma autorreflexão dos autores, em grande parte cientistas da computação, sobre a contribuição social a que servem suas pesquisas. A reflexão permite chegar à definição de 4 papéis essenciais: (1) diagnóstico: ajudando a compreender problemas sociais; (2) formalização: definindo problemas sociais e mudando como suas possíveis soluções são compreendidas; (3) refutação: quando permite identificar as suas impossibilidades e limites e (4) sinédoque: quando torna problemas sociais mais evidentes para a sociedade.
|
|
Presença africana e teoria crítica na tecnologia
Neste trabalho, Ivo Pereira de Queiroz e Gilson Leandro Queluz buscam entender as conexões entre o conceito de reconhecimento de Frantz Fanon, em Pele negra máscaras brancas e a participação do povo negro na tecnologia.
O trabalho também analisa o determinismo tecnológico como uma possível ferramenta de opressão a partir da Teoria crítica da tecnologia, de Andrew Feenberg. Em seus trabalhos, Feenberg argumenta a favor da dimensão social da tecnologia, mostrando que não existe neutralidade em ferramentas computacionais: desmantelando os argumentos a favor do determinismo tecnológico.
Os autores também destacam a visão de Feenberg sobre a importância da democratização da tecnologia, permitindo que a sociedade questione, participe e tome parte na construção de novos futuros.
|
|
|
|
Deletar datasets antiéticos não é suficiente
Durante muitos anos, utilizou-se raspagem de dados para construir datasets utilizados em algoritmos de inteligência artificial. No entanto, a prática fere princípios de privacidade e proteção de dados pessoais. Como resultado, diversos foram removidos. Um estudo demonstrou que a remoção desses datasets não resolve todos os problemas.. Os autores mostraram como esses datasets antiéticos foram copiados, usados e reaproveitados em cerca de 1.000 artigos da área de computação. A cultura dentro da comunidade científica de computação é presumir que dados existem para serem usados. O estudo mostra como isso pode levar a problemas no futuro e como a ciência da computação tem falhado em resolver os problemas que ela mesma cria.
|
|
Sobre a (im)possibilidade de alcançar justiça
Cientistas da computação têm buscado desenvolver ferramentas para corrigir discriminações algorítmicas e garantir o princípio de fairness. A área de pesquisa de justiça algorítmica contém muitas propostas sobre como evitar que algoritmos aprendam preconceitos e como projetar algoritmos que são “justos”. No entanto, a pergunta básica "O que significa um algoritmo ser justo?" tem sido pouco explorada.
|
|
|
Mechanism Design for Social Good
O MD4SG é uma iniciativa internacional que reúne pesquisadores e profissionais de mais de 130 instituições em 50 países. Fundada em 2016 como um grupo de leitura, a iniciativa hoje atua com grupos de trabalho que reúnem pesquisadores acadêmicos de várias disciplinas e sociedade civil para resolver problemas sociais do mundo real por meio de grupos de trabalho online. Os materiais utilizados pelos grupos, notas dos encontros e uma lista de sugestão de leituras são disponibilizados ao público.
|
|
Os valores codificados na pesquisa em aprendizado de máquina
Nos últimos anos, a suposta neutralidade da tecnologia, legitimadora de modelos decisórios tecnocráticos, tem sido questionada por pesquisadores em todo o mundo. Os autores do artigo defendem rejeitar esse conceito e decidiram investigar formas como a área de Aprendizado de Máquina é inerentemente carregada de valores.
O artigo apresenta uma análise (quantitativa e qualitativa) de 100 artigos da área de Inteligência Artificial, publicados nas principais conferências, como: ICML e NeurIPS. São identificados 67 valores aplicados a pesquisas de aprendizado de máquina, e, descobriu-se que os valores mais utilizados se justificam com base no desempenho, eficiência e inovação. Estes valores comumente utilizados sinalizam os desafios para a ciência da computação em descentralizar o poder e decolonizar a área.
|
|
|
Quem se beneficia ou é prejudicado pela visão computacional?
Em uma apresentação no workshop “Fairness Accountability Transparency and Ethics in Computer Vision” durante a conferência CVPR, Timnit Gebru fala sobre os riscos da visão computacional e os danos causados a grupos historicamente marginalizados. Um ponto de destaque da fala de Gebru é direcionado a cientistas e pesquisadores da computação: “Justiça não é apenas sobre datasets, e não é apenas sobre matemática. Justiça também diz respeito à sociedade e, como engenheiros, como cientistas, não podemos fugir desse fato”, disse Gebru no tutorial.
|
|
Injustiça algorítmica: uma perspectiva relacional
O artigo de Birhane representa um apelo para que cientistas da computação tenham uma visão mais crítica do campo. O artigo propõe uma mudança de pensamento com relação a ética em Inteligência Artificial, levando o conceito para além de soluções técnicas. A autora apresenta o conceito de ética relacional que nos convida questionar assimetrias de poder, desigualdades e hierarquias da nossa sociedade também presentes nas tecnologias.
|
|
PARA (RE)DESCOBRIR E CITAR REFERÊNCIAS:
|
|
|
AUTORA DESTE NÚMERO ESPECIAL:
|
|
|
Escreva um número da newsletter
Você é graduanda/o, mestranda/o ou doutoranda/o e quer escrever um número temático da newsletter da Desvelar? Clica acima e conta pra gente.
|
|
|
Livros da Desvelar
A Desvelar desenvolve publicações como Comunidades, Algoritmos e Ativismos Digitais: olhares afrodiaspóricos. Disponível para compra ou download, a obra reúne 14 capítulos sobre tecnologia e internet com autoras de Brasil, EUA, Gana, Nigéria, Etiópia e mais. A próxima coletânea já está no forno, apoie para que se tornem em muitas! :)
|
|
|
|
|
|