SEM CATEGORIA TECNOLOGIA

Novos algoritmos treinam a IA para evitar maus comportamentos específicos

A inteligência artificial mudou-se para o mainstream comercial, graças às proezas crescentes dos algoritmos de aprendizado de máquina que permitem que os computadores se treinem para fazer coisas como dirigir carros, controlar robôs ou automatizar a tomada de decisões.

Mas, quando a IA começa a lidar com tarefas delicadas, como ajudar a escolher quais prisioneiros recebem fiança, os formuladores de políticas insistem em que os cientistas da computação ofereçam garantias de que os sistemas automatizados foram projetados para minimizar, se não evitar completamente, resultados indesejados, como risco excessivo ou raça e gênero. viés.

Uma equipe liderada por pesquisadores de Stanford e da Universidade de Massachusetts Amherst publicou um artigo em 22 de novembro na Science, sugerindo como fornecer tais garantias. O artigo descreve uma nova técnica que traduz um objetivo difuso, como evitar o viés de gênero, nos critérios matemáticos precisos que permitiriam que um algoritmo de aprendizado de máquina treinasse um aplicativo de IA para evitar esse comportamento.

“Queremos avançar na IA que respeite os valores de seus usuários humanos e justifique a confiança que depositamos em sistemas autônomos”, disse Emma Brunskill, professora assistente de ciência da computação em Stanford e principal autor do artigo.

Evitando mau comportamento

O trabalho tem como premissa a noção de que se os resultados ou comportamentos “inseguros” ou “injustos” puderem ser definidos matematicamente, será possível criar algoritmos que possam aprender com os dados sobre como evitar esses resultados indesejados com alta confiança. Os pesquisadores também queriam desenvolver um conjunto de técnicas que tornassem mais fácil para os usuários especificar que tipo de comportamento indesejado eles querem restringir e permitir que os projetistas de aprendizado de máquina prevejam com confiança que um sistema treinado usando dados passados ​​pode ser confiável quando é aplicado em circunstâncias do mundo real.

“Mostramos como os projetistas de algoritmos de aprendizado de máquina podem tornar mais fácil para as pessoas que desejam incorporar IA em seus produtos e serviços descrever resultados ou comportamentos indesejados que o sistema de IA evitará com alta probabilidade”, disse Philip Thomas, assistente professor de ciência da computação na Universidade de Massachusetts Amherst e primeiro autor do artigo.

Justiça e segurança

Os pesquisadores testaram sua abordagem tentando melhorar a equidade dos algoritmos que prevêem GPAs de estudantes universitários com base nos resultados dos exames, uma prática comum que pode resultar em viés de gênero. Usando um conjunto de dados experimental, eles deram instruções matemáticas ao algoritmo para evitar o desenvolvimento de um método preditivo que superestimou ou subestimou sistematicamente os GPAs para um sexo. Com essas instruções, o algoritmo identificou uma maneira melhor de prever GPAs de alunos com viés de gênero muito menos sistemático do que os métodos existentes. Os métodos anteriores tiveram dificuldades nesse sentido, porque não tinham um filtro de justiça embutido ou porque os algoritmos desenvolvidos para alcançar a justiça tinham escopo muito limitado.

O grupo desenvolveu outro algoritmo e o usou para equilibrar segurança e desempenho em uma bomba de insulina automatizada. Essas bombas devem decidir qual a dose grande ou pequena de insulina para dar ao paciente nas refeições. Idealmente, a bomba fornece insulina apenas o suficiente para manter os níveis de açúcar no sangue estáveis. Pouca insulina permite que os níveis de açúcar no sangue subam, levando a desconfortos de curto prazo, como náusea e risco elevado de complicações a longo prazo, incluindo doenças cardiovasculares. Demasiado e açúcar no sangue cai – um resultado potencialmente mortal.

O aprendizado de máquina pode ajudar a identificar padrões sutis nas respostas de doses de açúcar no sangue de um indivíduo, mas os métodos existentes não facilitam os médicos a especificar resultados que os algoritmos de dosagem automatizados devem evitar, como falhas de açúcar no sangue. Usando um simulador de glicose no sangue, Brunskill e Thomas mostraram como as bombas poderiam ser treinadas para identificar dosagens personalizadas para essa pessoa – evitando complicações decorrentes da super ou subdosagem. Embora o grupo não esteja pronto para testar esse algoritmo em pessoas reais, ele aponta para uma abordagem de IA que pode eventualmente melhorar a qualidade de vida dos diabéticos.

Em seu artigo científico , Brunskill e Thomas usam o termo “algoritmo seldoniano” para definir sua abordagem, uma referência a Hari Seldon, um personagem inventado pelo autor de ficção científica Isaac Asimov, que certa vez proclamou três leis da robótica começando com a injunção de que “A o robô não pode ferir um ser humano ou, por inação, permitir que um ser humano seja prejudicado “.

Embora reconheça que o campo ainda esteja longe de garantir as três leis, Thomas disse que essa estrutura seldoniana tornará mais fácil para os projetistas de aprendizado de máquina criar instruções para evitar comportamentos em todos os tipos de algoritmos, de uma maneira que lhes permita avaliar a probabilidade que sistemas treinados funcionem corretamente no mundo real.

Brunskill disse que essa estrutura proposta se baseia nos esforços que muitos cientistas da computação estão fazendo para encontrar um equilíbrio entre a criação de algoritmos poderosos e o desenvolvimento de métodos para garantir sua confiabilidade.

“Pensar em como podemos criar algoritmos que melhor respeitem valores como segurança e justiça é essencial, pois a sociedade depende cada vez mais da IA”, disse Brunskill.