|
|
Bom dia.
Até 2030, a Inteligência Artificial deverá adicionar 15 trilhões de dólares à economia global impactando praticamente todos os aspectos da nossa vida. E as lideranças de tecnologia se apressam em concordar que é preciso regular sua aplicação antes que seja tarde. Também nesta edição:
- Conheça a Mine, a startup israelenese que quer ajudar os consumidores a apagar suas pegadas digitais;
- Uma conversa história entre duas lendas da inovação disruptiva;
- O mapa dos princípios éticos da IA
Boa leitura
|
|
Todos querem ajudar a regulamentar a IA
|
|
O mercado global de inteligência artificial (IA) deverá atingir US$ 169,41 bilhões até 2025. É mais provável que a tecnologia adicione US$ 15 trilhões à economia global até 2030. Diante desse cenário, é natural que o assunto regulamentação da IA venha mobilizando tanto os fornecedores de tecnologia quanto a comunidade internacional.
Depois de ser mal interpretado em sua passagem pela Europa, quando teria advertido governos contra a regulamentação apressada da IA, argumentando que as regras existentes podem ser suficientes para governar a nova tecnologia, Sundar Pichai, CEO da Alphabet e do Google, fez questão de esclarecer seu posicionamento em um texto opinativo publicado pelo Financial Times. Nele, o executivo admite a necessidade da regulação, uma vez que novos desafios, “que nenhuma empresa ou setor poderá resolver sozinho”, inevitavelmente surgirão.
“Empresas como a nossa não podem simplesmente construir novas tecnologias promissoras e deixar que as forças do mercado decidam como será usada. É igualmente nossa obrigação garantir que a tecnologia seja aproveitada para o bem e esteja disponível para todos”, escreve. “O papel do Google começa com o reconhecimento da necessidade de uma abordagem baseada em princípios e regulamentada para a aplicação da IA, mas não termina aí. Queremos ser um parceiro prestativo e engajado dos reguladores, ao lidar com as inevitáveis tensões e trade-offs”.
Pichai advoga também que se busque um alinhamento internacional para as propostas de regulamentação já em curso, que adote uma abordagem proporcional, equilibrando possíveis danos, especialmente em áreas de alto risco, com oportunidades sociais. “A regulamentação pode fornecer orientações amplas, permitindo uma implementação personalizada em diferentes setores”, escreve. Em semana de reunião de Fórum Econômico Mundial, soa como música aos ouvidos das lideranças mundiais.
A IBM apresentará em um painel em Davos o IBM Policy Lab - uma iniciativa destinada a fornecer aos formuladores de políticas recomendações para problemas emergentes em tecnologias. O objetivo da iniciativa é estabelecer uma "visão" e sugestões acionáveis para "aproveitar os benefícios da inovação e garantir a confiança", especialmente em relação à IA, de acordo com os materiais publicados nesta manhã. Na opinião da Fortune, liderando o debate regulatório de IA, a IBM tem a chance de voltar aos holofotes como líder em tecnologia de ponta.
|
|
Podcast The Shift
Episódio #12: Um papo com In Hsieh, o cara que mais entende do mercado chinês.
Spotify - Apple - Google
|
|
|
Ótima notícia para a IA e a neurociência
|
|
O estudo de como os organismos aprendem com a experiência para antecipar corretamente as recompensas tem sido um campo de pesquisa produtivo há mais de um século, desde o trabalho psicológico seminal de Ivan Pavlov. Em 1951, Marvin Minsky, então estudante de Harvard, criou um computador que poderia aprender continuamente através de reforços semelhantes para resolver um labirinto virtual.
Esta semana, em um artigo publicado na Nature, a DeepMind, subsidiária de IA da Alphabet, usou lições do aprendizado por reforço para propor uma nova teoria sobre os mecanismos de recompensa em nosso cérebro. Ao otimizar os algoritmos de aprendizado por reforço, os pesquisadores descobriram detalhes sobre como a dopamina ajuda o cérebro a aprender.
Embora empiricamente os pesquisadores de IA já soubessem que o aprendizado de reforço distributivo, combinado com redes neurais profundas, é extremamente poderoso, os novos dados o validam ainda mais como um caminho potencial para a IA que aprende de maneira mais semelhante ao cérebro humano - o único exemplo de inteligência de nível que conhecemos.
“Quando somos capazes de demonstrar que o cérebro emprega algoritmos como os que estamos usando em nosso trabalho de IA, isso reforça nossa confiança de que esses algoritmos serão úteis a longo prazo - que eles se adaptarão bem a problemas complexos do mundo real, e interagir bem com outros processos computacionais. Existe um tipo de validação envolvida: se o cérebro está fazendo isso, provavelmente é uma boa ideia”, disse o autor sênior Dr. Matt Botvinick, diretor de pesquisa em neurociência da DeepMind.
Um ingrediente-chave é que o aprendizado sobre a distribuição de recompensas fornece à rede neural um sinal mais poderoso para moldar sua representação de maneira robusta às mudanças no ambiente ou às mudanças nas regras.
- A aplicação prática dos algoritmos de Reinforcement Learning foi o tema da conversa entre Roger Magoulas, diretor da O'Reilly Media e Edward Jezierski, gerente do programa de aprendizado por reforço da Microsoft. Você saberia dizer como é possível reunir criatividade e curiosidade em um sistema de aprendizado? Vale ouvir a explicação.
|
|
O dia em que Marc e Clayton bateram um papo
|
|
|
Uma conversa entre duas lendas: o que pode sair de um papo de 50 minutos entre o professor Clayton Christensen, o lendário criador da teoria da inovação disruptiva, e o empreendedor serial e venture capitalist Marc Andreessen? Insights sensacionais, no mínimo. A conversa aconteceu em 2016, no palco da Startup Grind, uma das conferências mais importantes do Silicon Valley para o ecossistema empreendedor.
A conversa girou sobre disrupção, não das empresas tradicionais, mas do próprio ecossistema de venture capital. E Christensen, como sempre, foi praticamente profético ao comentar sobre o excesso de dinheiro disponível e o risco dele ser desperdiçado em investimentos que incentivavam seu uso desmesurado por startups sem experiência ou controle de gestão. Qualquer semelhança com a crise dos unicórnios não é mera coincidência. No blog da Startup Grind você lê todo o resumo da conversa.
|
|
Eles fazem valer o “direito de ser esquecido”
|
|
Com a missão de criar um padrão global de privacidade, onde as pessoas possam tomar decisões informadas sobre onde devem estar seus dados pessoais enquanto desfrutam dos benefícios da Internet, a Mine, empresa israelense fundada por três empreendedores, investidores e geeks, como eles gostam de se auto-referir, acaba de abrir as portas no Reino Unido. E já se prepara para iniciar atividades também nos Estados Unidos.
"Estamos iniciando o futuro da propriedade de dados", afirma Gal Ringel, co-fundador e CEO da startup, que já levantou 2,7 milhões de euros há dois anos, e uma rodada liderada pela Battery Ventures. Em outubro do ano passado, a empresa foi escolhida pela gigante da tecnologia Intel como uma das 160 startups a ingressar no esquema de aceleração "Ignite", um programa de 20 semanas que oferece orientação prática a startups pré-semente.
O aplicativo Mine funciona usando o que a empresa chama de algoritmos de aprendizado de máquina "não intrusivos", que eliminam mensagens indesejadas das caixas postais. Os usuários recebem uma lista de empresas que atualmente mantêm suas informações pessoais e podem enviar um email solicitando que seus dados sejam excluídos com apenas um clique.
A ideia é tornar todos os usuários cientes de sua pegada digital e permitir que exercitem seu 'direito a ser esquecido'. A EU-Startups relata que a Mine analisou quatro milhões de serviços digitais até o momento para determinar quais dados pessoais estão sendo armazenados.
|
|
|
Nos últimos anos, uma série de empresas, organizações e governos produziram ou endossaram documentos descrevendo os princípios para a Inteligência Artificial. Essa proliferação de abordagens éticas para a tecnologia inspirou uma equipe de pesquisa da Berkman Klein a compará-los e mapeá-los, no relatório “Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-based Approaches to Principles for AI”.
Esse esforço descobriu um consenso crescente em torno de oito tendências temáticas principais: privacidade, responsabilidade, segurança e proteção, transparência e explicabilidade, justiça e não discriminação, controle humano da tecnologia, responsabilidade profissional e promoção dos valores humanos. Muitos deles estão presentes em quase 100% dos documentos analisados. A visualização criada destaca também as palavras-chave referentes a cada um dos oito temas.
Mas os compromissos com a IA ética são valiosos apenas se forem implementados. Esta semana, a Workday, parceira do Fórum Econômico Mundial, compartilhou formas de defender esses princípios em toda a organização.
|
|
- A União Europeia está considerando proibir temporariamente o reconhecimento facial em espaços públicos. O Google apoia a ideia. A Microsoft é contra. E alguns estudiosos recomendam a adoção de medidas alternativas, que evitem a suspensão total de uso da tecnologia.
- O uso de reconhecimento facial pela polícia é uma preocupação crescente e ficou mais forte esta semana, depois que o New York Times revelou que centenas de agências de aplicação da lei nos EUA começaram a usar o polêmico sistema da Clearview AI, composto de bilhões de imagens extraídas de milhões de sites, incluindo Facebook, YouTube e Venmo. O jornal diz que o trabalho da Clearview AI pode "acabar com a privacidade como a conhecemos". Vale a pena ler a matéria na íntegra.
- Como usar a IA para combater a lavagem de dinheiro.
- A Apple pagou cerca de US $ 200 milhões na compra da startup Xnor.ai, cujas ferramentas de Inteligência Artificial de baixo consumo de energia poderão ajudá-la a integrar recursos inteligentes a dispositivos móveis, vestíveis e de Edge Computing como câmeras inteligentes.
- Danone e Microsoft acabam de lançar a AI Factory For AgriFood, um programa de suporte e aceleração para startups de IA com projetos de alimentação sustentável e agricultura regenerativa.
- Ainda é um grande desafio cumprir a legislação de privacidade que estipula o direito de ser esquecido. Mas, aos poucos, os modelos de Machine Learning estão aprendendo a nos esquecer.
- Pesquisadores criaram um sistema de imagem que pode ajudar carros sem motorista a "ver" melhor em esquinas, usando lasers e IA.
- Automatizando a seleção. A IA está sendo cada vez mais usada para realizar entrevistas de emprego, fazendo uma primeira triagem dos candidatos.
- O que são * args e ** kwargs em Python? E como usá-los?
- Como a Starbucks passou a ser exemplo de uso estratégico de dados para permanecer competitiva.
|
|
Conheça nossa proposta de jornalismo.
|
|
|
|
|
|
|
|