Faça políticas baseadas em dados e influencie a tomada de decisões
Os modelos de aprendizado de máquina são poderosos para identificar padrões em dados e fazer previsões. Mas oferecem pouco apoio para estimar como o resultado do mundo real muda na presença de uma intervenção.
Os profissionais têm se concentrado cada vez mais no uso de dados históricos para informar suas futuras decisões e intervenções de negócios. Por exemplo, como a receita seria afetada se uma empresa adotasse uma nova estratégia de preços? Um novo medicamento melhoraria a condição de um paciente, tudo o resto igual?
O componente de inferência causal do painel de IA responsável aborda essas questões estimando o efeito de um recurso em um resultado de interesse em média, em uma população ou coorte, e em um nível individual. Também ajuda a construir intervenções promissoras, simulando respostas de características a várias intervenções e criando regras para determinar quais coortes populacionais se beneficiariam de uma intervenção. Coletivamente, essas funcionalidades permitem que os tomadores de decisão apliquem novas políticas e impulsionem mudanças no mundo real.
As capacidades deste componente vêm do pacote EconML . Ele estima efeitos heterogêneos de tratamento a partir de dados observacionais por meio da técnica de aprendizado de máquina duplo.
Use a inferência causal quando precisar:
- Identifique os recursos que têm o efeito mais direto no seu resultado de interesse.
- Decida qual política geral de tratamento adotar para maximizar o impacto no mundo real em um resultado de interesse.
- Compreender como indivíduos com determinados valores de características responderiam a uma política de tratamento específica.
Como são gerados os insights de inferência causal?
Nota
Apenas dados históricos são necessários para gerar insights causais. Os efeitos causais calculados com base nas características do tratamento são puramente uma propriedade de dados. Assim, um modelo treinado é opcional quando você está calculando os efeitos causais.
O aprendizado de máquina duplo é um método para estimar efeitos heterogêneos do tratamento quando todos os potenciais fatores de confusão/controles (fatores que simultaneamente tiveram um efeito direto na decisão de tratamento nos dados coletados e no resultado observado) são observados, mas existe um dos seguintes problemas:
- Há demasiados para que as abordagens estatísticas clássicas sejam aplicáveis. Ou seja, são de alta dimensão.
- O seu efeito no tratamento e no resultado não pode ser satisfatoriamente modelado por funções paramétricas. Ou seja, não são paramétricos.
Você pode usar técnicas de aprendizado de máquina para resolver ambos os problemas. Para um exemplo, ver Chernozhukov2016.
O aprendizado de máquina duplo reduz o problema estimando primeiro duas tarefas preditivas:
- Previsão do resultado dos controlos
- Prevendo o tratamento a partir dos controles
Em seguida, o método combina esses dois modelos preditivos em uma estimativa de estágio final para criar um modelo do efeito heterogêneo do tratamento. Essa abordagem permite que algoritmos arbitrários de aprendizado de máquina sejam usados para as duas tarefas preditivas, mantendo muitas propriedades estatísticas favoráveis relacionadas ao modelo final. Essas propriedades incluem pequenos erros quadrados médios, normalidade assintótica e construção de intervalos de confiança.
Que outras ferramentas a Microsoft fornece para inferência causal?
O Projeto Azua fornece uma nova estrutura que se concentra na inferência causal de ponta a ponta.
A tecnologia DECI (deep end-to-end causal inference) da Azua é um modelo único que pode simultaneamente fazer descoberta causal e inferência causal. O usuário fornece dados, e o modelo pode produzir as relações causais entre todas as variáveis.
Por si só, essa abordagem pode fornecer informações sobre os dados. Permite o cálculo de métricas como o efeito do tratamento individual (ITE), o efeito médio do tratamento (ATE) e o efeito médio condicional do tratamento (CATE). Você pode usar esses cálculos para tomar decisões ideais.
A estrutura é escalável para dados grandes, tanto em termos do número de variáveis quanto do número de pontos de dados. Ele também pode lidar com entradas de dados ausentes com tipos estatísticos mistos.
O EconML alimenta o back-end do componente de inferência causal do painel de IA responsável. É um pacote Python que aplica técnicas de aprendizado de máquina para estimar respostas causais individualizadas a partir de dados observacionais ou experimentais.
O conjunto de métodos de estimativa no EconML representa os mais recentes avanços em aprendizado de máquina causal. Ao incorporar etapas individuais de aprendizado de máquina em modelos causais interpretáveis, esses métodos melhoram a confiabilidade das previsões hipotéticas e tornam a análise causal mais rápida e fácil para um amplo conjunto de usuários.
DoWhy é uma biblioteca Python que visa estimular o pensamento causal e a análise. DoWhy fornece uma interface de quatro etapas baseada em princípios para inferência causal que se concentra em modelar explicitamente suposições causais e validá-las tanto quanto possível.
A principal característica do DoWhy é sua API de refutação de última geração que pode testar automaticamente suposições causais para qualquer método de estimativa. Torna a inferência mais robusta e acessível a não especialistas.
DoWhy suporta a estimativa do efeito causal médio para back-door, front-door, variável instrumental e outros métodos de identificação. Também suporta a estimativa do CATE através de uma integração com a biblioteca EconML.
Próximos passos
- Saiba como gerar o painel de IA Responsável por meio de CLI e SDK ou da interface do usuário do estúdio Azure Machine Learning.
- Explore as visualizações de inferência causal suportadas do painel de IA responsável.
- Saiba como gerar um scorecard de IA Responsável com base nos insights observados no painel de IA Responsável.