Principais marcos em IA explicável em 2020

Ambika Choudhury

Inteligência artificial explicável é um método emergente para aumentar a confiabilidade, responsabilidade e dependência em áreas críticas, isso é feito mesclando abordagens de aprendizado de máquina com métodos explicativos que revelam quais são os critérios de decisão ou por que foram estabelecidos e permitem que as pessoas entendam e controlem melhor as ferramentas acionadas por IA.

Aqui abaixo, discutimos alguns dos marcos importantes, sem ordem específica, na IA explicável (XAI) em 2020.

Fairlearn Toolkit da Microsoft

Fairlearn é um popular kit de ferramentas de IA explicável que permite a cientistas de dados, bem como desenvolvedores, avaliar e aprimorar a justiça de seus sistemas de IA.

O kit de ferramentas tem dois componentes, um painel de visualização interativo e algoritmos de mitigação de injustiça, eles são projetados principalmente para ajudar na navegação de compensações entre justiça e desempenho do modelo.

O kit de ferramentas de código aberto oferece suporte a um amplo espectro de métricas de justiça para avaliar os impactos de um modelo de IA em diversos grupos de pessoas, compreendendo tarefas de classificação e regressão.

Borracha da Salesforce

Avaliando Rationales And Simple English Reasoning (ERASER) é um benchmark de IA explicável pela Salesforce que ajuda a avaliar modelos de processamento de linguagem natural racionalizado (PNL). O benchmark compreende sete conjuntos de dados e tarefas de PNL diversos que incluem anotações humanas de explicações como evidências de suporte para previsões.

Todos os conjuntos de dados incluídos no ERASER são tarefas de classificação, incluindo análise de sentimento, inferência de linguagem natural e tarefas de resposta a perguntas, entre outras, com um número diferente de rótulos e alguns têm rótulos de classe variados. Além disso, o benchmark foca em “justificativas”, ou seja, fragmentos de texto extraídos do documento de origem da tarefa que fornecem evidências suficientes para prever a saída correta.

IA explicável para experiências adversas na infância

Em outubro, pesquisadores do Centro de Ciências da Saúde da Universidade do Tennessee desenvolveram um sistema de IA “explicável” conhecido como Plataforma Semântica para Vigilância de Experiências Adversas da Infância (SPACES).

O SPACES é um sistema de recomendação inteligente que emprega técnicas de ML para ajudar na triagem de pacientes e na alocação ou descoberta de recursos relevantes.

De acordo com os pesquisadores, o sistema proposto pretende construir relacionamento com os pacientes, gerando perguntas personalizadas durante as entrevistas, minimizando a quantidade de informações que precisam ser coletadas diretamente do paciente.

WhiteNoise Toolkit da Microsoft

Desenvolvido em colaboração com pesquisadores do Instituto Harvard para Ciências Sociais Quantitativas e da Escola de Engenharia, o WhileNoise é uma plataforma de privacidade diferencial que contém diferentes componentes para a construção de sistemas globais diferencialmente privados.

A Microsoft abriu o código-fonte dessa ferramenta durante a conferência Build 2020 com um esforço para direcionar para sistemas de IA mais explicáveis.

É um projeto de código aberto composto de dois componentes de nível superior, ou seja, núcleo e sistema, a biblioteca principal inclui mecanismos de privacidade para implementar um sistema privado diferencial, e a biblioteca do sistema fornece ferramentas e serviços para trabalhar com dados tabulares e relacionais.

COVID-Net

Recentemente, a DarwinAI, uma empresa de IA explicável, desenvolveu COVID-Net e COVIDNet-S em sua plataforma de IA explicável.

Em março deste ano, o COVID-Net é um projeto de rede neural convolucional profunda adaptado para a detecção de casos COVID-19 a partir de imagens de raios-X de tórax (CXR), junto com o modelo, os pesquisadores também abriram o código COVIDx, um conjunto de dados de referência de acesso aberto que foi gerado, compreendendo 13.975 imagens CXR em 13.870 casos de pacientes.

Em setembro, a DarwinAI anunciou o COVIDNet-S, um conjunto de modelos de aprendizado profundo projetados em sua plataforma de IA explicável para avaliar a gravidade da doença de COVID-19. O COVIDNet-S pode pontuar quantitativamente a extensão geográfica e de opacidade nos pulmões de um paciente, analisando os principais indicadores visuais de sua radiografia de tórax. O sistema foi desenvolvido usando mais de 10.000 radiografias de tórax, com centenas delas sendo pacientes COVID-19 positivos com avaliações abrangentes da gravidade da doença pulmonar.

AMBIKA CHOUDHURY

Jornalista técnica que adora escrever sobre aprendizado de máquina e inteligência artificial. Amante da música, escrevendo e aprendendo algo fora da caixa. Contato: ambika.choudhury@analyticsindiamag.com

VOCES CONHECEM NOSSOS CURSOS TECNOLOGIA EM SAÚDE?

Inovações para Tecnologia em Saúde

Gestão da Tecnologia em Saúde

Impactos da Tecnologia em Saúde

Inovações para Tecnologia em Saúde

https://inlagsacademy.com.br/produto/principios-de-tecnologia-em-saude/

CONHEÇA NOSSOS CURSOS. CLIQUE NAS IMAGENS PARA SABER MAIS!

Compartilhe em suas Redes Sociais