22/01/20 | Ver no browser

Inteligência Artificial e Data Science sem mistério

Bom dia.
Até 2030, a Inteligência Artificial deverá adicionar 15 trilhões de dólares à economia global impactando praticamente todos os aspectos da nossa vida. E as lideranças de tecnologia se apressam em concordar que é preciso regular sua aplicação antes que seja tarde. Também nesta edição:
  • Conheça a Mine, a startup israelenese que quer ajudar os consumidores a apagar suas pegadas digitais;
  • Uma conversa história entre duas lendas da inovação disruptiva;
  • O mapa dos princípios éticos da IA
Boa leitura
Recebeu e ainda não é assinante? Assine já!

Todos querem ajudar a regulamentar a IA

O mercado global de inteligência artificial (IA) deverá atingir US$ 169,41 bilhões até 2025. É mais provável que a tecnologia adicione US$ 15 trilhões à economia global até 2030. Diante desse cenário, é natural que o assunto regulamentação da IA venha mobilizando tanto os fornecedores de tecnologia quanto a comunidade internacional.
 
Depois de ser mal interpretado em sua passagem pela Europa, quando teria advertido governos contra a regulamentação apressada da IA, argumentando que as regras existentes podem ser suficientes para governar a nova tecnologia, Sundar Pichai, CEO da Alphabet e do Google, fez questão de esclarecer seu posicionamento em um texto opinativo publicado pelo Financial Times. Nele, o executivo admite a necessidade da regulação, uma vez que novos desafios, “que nenhuma empresa ou setor poderá resolver sozinho”, inevitavelmente surgirão.
 
Empresas como a nossa não podem simplesmente construir novas tecnologias promissoras e deixar que as forças do mercado decidam como será usada. É igualmente nossa obrigação garantir que a tecnologia seja aproveitada para o bem e esteja disponível para todos”, escreve. “O papel do Google começa com o reconhecimento da necessidade de uma abordagem baseada em princípios e regulamentada para a aplicação da IA, mas não termina aí. Queremos ser um parceiro prestativo e engajado dos reguladores, ao lidar com as inevitáveis ​​tensões e trade-offs”.
 
Pichai advoga também que se busque um alinhamento internacional para as propostas de regulamentação já em curso, que adote uma abordagem proporcional, equilibrando possíveis danos, especialmente em áreas de alto risco, com oportunidades sociais. “A regulamentação pode fornecer orientações amplas, permitindo uma implementação personalizada em diferentes setores”, escreve. Em semana de reunião de Fórum Econômico Mundial, soa como música aos ouvidos das lideranças mundiais.
 
A IBM apresentará em um painel em Davos o IBM Policy Lab - uma iniciativa destinada a fornecer aos formuladores de políticas recomendações para problemas emergentes em tecnologias. O objetivo da iniciativa é estabelecer uma "visão" e sugestões acionáveis ​​para "aproveitar os benefícios da inovação e garantir a confiança", especialmente em relação à IA, de acordo com os materiais publicados nesta manhã. Na opinião da Fortune, liderando o debate regulatório de IA, a IBM tem a chance de voltar aos holofotes como líder em tecnologia de ponta.

Recebeu e ainda não é assinante? Assine já!
Podcast The Shift
Episódio #12: Um papo com In Hsieh, o cara que mais entende do mercado chinês.

Spotify - Apple - Google

Ótima notícia para a IA e a neurociência

O estudo de como os organismos aprendem com a experiência para antecipar corretamente as recompensas tem sido um campo de pesquisa produtivo há mais de um século, desde o trabalho psicológico seminal de Ivan Pavlov. Em 1951, Marvin Minsky, então estudante de Harvard, criou um computador que poderia aprender continuamente através de reforços semelhantes para resolver um labirinto virtual.
 
Esta semana, em um artigo publicado na Nature, a DeepMind, subsidiária de IA da Alphabet, usou lições do aprendizado por reforço para propor uma nova teoria sobre os mecanismos de recompensa em nosso cérebro. Ao otimizar os algoritmos de aprendizado por reforço, os pesquisadores descobriram detalhes sobre como a dopamina ajuda o cérebro a aprender.
 
Embora empiricamente os pesquisadores de IA já soubessem que o aprendizado de reforço distributivo, combinado com redes neurais profundas, é extremamente poderoso, os novos dados o validam ainda mais como um caminho potencial para a IA que aprende de maneira mais semelhante ao cérebro humano - o único exemplo de inteligência de nível que conhecemos.

Quando somos capazes de demonstrar que o cérebro emprega algoritmos como os que estamos usando em nosso trabalho de IA, isso reforça nossa confiança de que esses algoritmos serão úteis a longo prazo - que eles se adaptarão bem a problemas complexos do mundo real, e interagir bem com outros processos computacionais. Existe um tipo de validação envolvida: se o cérebro está fazendo isso, provavelmente é uma boa ideia”, disse o autor sênior Dr. Matt Botvinick, diretor de pesquisa em neurociência da DeepMind.
 
Um ingrediente-chave é que o aprendizado sobre a distribuição de recompensas fornece à rede neural um sinal mais poderoso para moldar sua representação de maneira robusta às mudanças no ambiente ou às mudanças nas regras.

  • A aplicação prática dos algoritmos de Reinforcement Learning foi o tema da conversa entre Roger Magoulas, diretor da O'Reilly Media e Edward Jezierski, gerente do programa de aprendizado por reforço da Microsoft. Você saberia dizer como é possível  reunir criatividade e curiosidade em um sistema de aprendizado? Vale ouvir a explicação.
Recebeu e ainda não é assinante? Assine já!

O dia em que Marc e Clayton bateram um papo

Uma conversa entre duas lendas: o que pode sair de um papo de 50 minutos entre o professor Clayton Christensen, o lendário criador da teoria da inovação disruptiva, e o empreendedor serial e venture capitalist Marc Andreessen? Insights sensacionais, no mínimo. A conversa aconteceu em 2016, no palco da Startup Grind, uma das conferências mais importantes do Silicon Valley para o ecossistema empreendedor.
A conversa girou sobre disrupção, não das empresas tradicionais, mas do próprio ecossistema de venture capital. E Christensen, como sempre, foi praticamente profético ao comentar sobre o excesso de dinheiro disponível e o risco dele ser desperdiçado em investimentos que incentivavam seu uso desmesurado por startups sem experiência ou controle de gestão. Qualquer semelhança com a crise dos unicórnios não é mera coincidência. No blog da Startup Grind você lê todo o resumo da conversa.
 
Recebeu e ainda não é assinante? Assine já!

Eles fazem valer o “direito de ser esquecido”

Com a missão de criar um padrão global de privacidade, onde as pessoas possam tomar decisões informadas sobre onde devem estar seus dados pessoais enquanto desfrutam dos benefícios da Internet, a Mine, empresa israelense fundada por três empreendedores, investidores e geeks, como eles gostam de se auto-referir, acaba de abrir as portas no Reino Unido. E já se prepara para iniciar atividades também nos Estados Unidos.
 
"Estamos iniciando o futuro da propriedade de dados", afirma Gal Ringel, co-fundador e CEO da startup, que já levantou 2,7 milhões de euros há dois anos, e uma rodada liderada pela Battery Ventures. Em outubro do ano passado, a empresa foi escolhida pela gigante da tecnologia Intel como uma das 160 startups a ingressar no esquema de aceleração "Ignite", um programa de 20 semanas que oferece orientação prática a startups pré-semente.
 
O aplicativo Mine funciona usando o que a empresa chama de algoritmos de aprendizado de máquina "não intrusivos", que eliminam mensagens indesejadas das caixas postais. Os usuários recebem uma lista de empresas que atualmente mantêm suas informações pessoais e podem enviar um email solicitando que seus dados sejam excluídos com apenas um clique.
 
A ideia é tornar todos os usuários cientes de sua pegada digital e permitir que exercitem seu 'direito a ser esquecido'. A EU-Startups relata que a Mine analisou quatro milhões de serviços digitais até o momento para determinar quais dados pessoais estão sendo armazenados.

Princípios éticos da IA


Nos últimos anos, uma série de empresas, organizações e governos produziram ou endossaram documentos descrevendo os princípios para a Inteligência Artificial.  Essa proliferação de abordagens éticas para a tecnologia inspirou uma equipe de pesquisa da Berkman Klein a compará-los e mapeá-los, no relatório “Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-based Approaches to Principles for AI”.
 
Esse esforço descobriu um consenso crescente em torno de oito tendências temáticas principais: privacidade, responsabilidade, segurança e proteção, transparência e explicabilidade, justiça e não discriminação, controle humano da tecnologia, responsabilidade profissional e promoção dos valores humanos. Muitos deles estão presentes em quase 100% dos documentos analisados. A visualização criada destaca também as palavras-chave referentes a cada um dos oito temas.
 
Mas os compromissos com a IA ética são valiosos apenas se forem implementados. Esta semana, a   Workday, parceira do Fórum Econômico Mundial, compartilhou formas de defender esses princípios em toda a organização.
 
Recebeu e ainda não é assinante? Assine já!

Garimpo da semana

Recebeu e ainda não é assinante? Assine agora!
Conheça nossa proposta de jornalismo.
Veja aqui nossa Política de Privacidade.
Divulgue Divulgue
Tuíte Tuíte
Recomende Recomende
Compartilhe Compartilhe
Nosso LinkedIn Nosso LinkedIn
Nosso Twitter Nosso Twitter
Edições Anteriores Edições Anteriores
Copyright © 2020 The Shift. Todos os direitos reservados.