Preparar-se para as implicações da IA responsável

Concluído

IA é a tecnologia que define nossa época. Ela já está permitindo um progresso mais rápido e profundo em quase todos os campos da atividade humana e ajudando a enfrentar alguns dos desafios mais assustadores da sociedade. Por exemplo, a IA pode ajudar pessoas com deficiências visuais a entender imagens gerando texto descritivo para imagens. Em outro exemplo, a IA pode ajudar os agricultores a produzir alimentos suficientes para a crescente população global.

Na Microsoft, acreditamos que a inteligência computacional da IA deve ser usada para ampliar a criatividade inata e a inventividade dos humanos. Nossa visão para a IA é capacitar cada desenvolvedor a inovar, capacitar as organizações a transformar setores e capacitar as pessoas a transformar a sociedade.

Implicações sociais da IA

Assim como ocorreu com todas as grandes inovações tecnológicas do passado, o uso da tecnologia de IA tem amplos impactos sobre a sociedade, gerando perguntas complexas e desafiadoras sobre o futuro que desejamos ver. A IA tem implicações na tomada de decisões em setores, na privacidade e segurança de dados e nas habilidades que as pessoas precisam adquirir para terem sucesso no local de trabalho. Enquanto olhamos para esse futuro, devemos nos perguntar:

  • Como projetar, criar e usar sistemas de IA que gerem um impacto positivo nos indivíduos e nas sociedades?
  • Como podemos preparar melhor os trabalhadores para os efeitos da IA?
  • Como podemos obter os benefícios da IA respeitando a privacidade?

A importância de uma abordagem responsável de IA

É importante reconhecer que, à medida que novas tecnologias inteligentes surgem e proliferam em toda a sociedade, seus benefícios trazem consequências não intencionais e imprevisíveis. Algumas dessas consequências têm ramificações éticas significativas e o potencial de causar sérios danos. Embora as organizações ainda não possam prever o futuro, é nossa responsabilidade fazer um esforço em conjunto para prever e mitigar as consequências indesejadas das tecnologias que lançamos ao mundo por meio do planejamento e da supervisão contínuos.

Ameaças

Cada avanço nas tecnologias de IA traz um novo lembrete de nossa responsabilidade compartilhada. Por exemplo, em 2016, a Microsoft lançou um chatbot no X chamado Tay, que poderia aprender com as interações com os usuários do X. O objetivo era permitir que o chatbot replicasse melhor os traços de comunicação humana e personalidade. No entanto, dentro de 24 horas, os usuários perceberam que o chatbot poderia aprender com a retórica intolerante, e transformaram o chatbot em um veículo para discurso de ódio. Essa experiência é um exemplo de por que devemos considerar ameaças humanas ao projetar sistemas de IA.

Novas ameaças exigem uma evolução constante em nossa abordagem para a IA responsável. Por exemplo, como a IA generativa permite que as pessoas criem ou editem vídeos, imagens ou arquivos de áudio com tanta credibilidade que pareçam reais, a autenticidade da mídia é mais difícil de verificar. Em resposta, a Microsoft está se unindo a outros stakeholders de tecnologia e notícias para desenvolver padrões técnicos para lidar com a manipulação relacionada ao deepfake.

Observação

Para se preparar para novos tipos de ataques que podem influenciar os conjuntos de dados de aprendizado, a Microsoft desenvolveu tecnologias como filtros de conteúdo avançados e introduziu supervisores para sistemas de IA com recursos de aprendizado automático. Os modelos de IA generativos atuais, como os fornecidos nos Serviços de IA do Azure ou no chat do Bing, são criados com base nesses insights.

Resultados parciais

Outra consequência indesejada que as organizações precisam ter em mente é que a IA pode reforçar tendências sociais ou outras tendências sem planejamento e design deliberados. É importante para os desenvolvedores entender como os preconceitos podem ser introduzidos nos dados de treinamento ou nos modelos de machine learning. Esse problema pode ser generalizado em modelos pré-construídos porque o usuário pode não estar lidando com os dados de treinamento.

Por exemplo, considere uma grande instituição financeira de empréstimo que deseja desenvolver um sistema de pontuação de risco para aprovações de empréstimos. Quando os engenheiros testam o sistema antes da implantação, eles percebem que ele só aprova empréstimos para mutuários do sexo masculino. Como o sistema foi treinado sobre dados de clientes anteriores, ele reproduziu o viés machista histórico dos diretores de empréstimos. A validação do sistema antes da implantação nos permitiu identificar e resolver o problema antes que o sistema estivesse operacional.

Observação

Na Microsoft, nossos pesquisadores estão explorando ferramentas e técnicas para detectar e reduzir os preconceitos nos sistemas de IA. Os modelos predefinidos são validados completamente, mas, mesmo assim, devem ser usados ​​com sabedoria e seus resultados devem ser sempre auditados antes da ação.

Casos de uso confidenciais

Outra ilustração de nossa responsabilidade para atenuar consequências não intencionais ocorre com tecnologias confidenciais como reconhecimento facial. Recentemente, tem havido uma demanda crescente por tecnologias de reconhecimento facial, especialmente de organizações de segurança pública, que enxergam o potencial dessas tecnologias para casos de uso como encontrar crianças desaparecidas. No entanto, reconhecemos que essas tecnologias poderiam colocar liberdades fundamentais em risco. Por exemplo, poderiam habilitar a vigilância contínua de indivíduos específicos. Acreditamos que a sociedade tem a responsabilidade de definir limites apropriados para o uso dessas tecnologias, que inclui a garantia de que o uso governamental da tecnologia de reconhecimento facial permaneça sujeito ao Estado de direito.

Embora novas leis e regulamentos precisem ser escritos, eles não substituem a responsabilidade que todos nós temos ao nos envolvermos com a IA. Trabalhando juntos, empresas, governos, ONGs e pesquisadores acadêmicos podem lidar com casos de uso confidenciais.

Observação

A Microsoft avalia e desenvolve princípios para controlar nosso trabalho com tecnologias de reconhecimento facial. Prevemos que esses princípios evoluirão ao longo do tempo conforme continuamos aprendendo e fazendo parcerias com clientes, outras empresas de tecnologia, projetos de pesquisa acadêmica, sociedade civil e outros sobre esse problema. A Microsoft usa práticas de IA responsáveis para detectar, prevenir e atenuar esses problemas, mas qualquer projeto relacionado à IA também deve considerá-los.

A seguir, vamos ver como os seis princípios de orientação da Microsoft para o uso responsável da IA podem ser aplicados em outras organizações.