INTELIGÊNCIA ARTIFICIAL NA SAÚDE

Alfredo Martinho – CEO Inlags Academy

Incentivado pelo colega de grupo de whatsapp, Eduardo Prado, um engenheiro já reconhecido por sua atuação nesse tema com diversos artigos (não só em IA) publicados começo aqui uma série de postagens a partir de suas indicações de leituras bibliográficas no assunto.

Achei interessante nessa última quinta-feira, ele apontar para a questão do viés em IA, que eu jamais pensaria que pudesse ocorrer, já que ela, IA, nasce supostamente inteligente, podendo na raiz suprimir esse problema que tanto azucrina a ciência e suas pesquisas – mas, ao que parece, como quem a construiu foi humano, e fica impossível não o dotar de todo aprendizado enviesado que soe ocorrer ao longo de sua existência o que jocosamente poderíamos admitir como uma burrice naturalizada.

Capa: Photo by Icons8 Team on Unsplash

Grifos no texto e observações em caps lock do editor/curador

Boa leitura!

A Ética e a Bioética na Nossa Vida 2x 62,19

VIÉS DE INTELIGÊNCIA ARTIFICIAL EM SAÚDE

Escrito por Wendy Watson e Christina Marsh

O controle do viés do algoritmo é um imperativo da indústria!

A inteligência artificial (IA) tem o potencial de revolucionar a prestação de cuidados de saúde, com aplicações em suporte à decisão, atendimento ao paciente e gerenciamento de doenças, está se tornando rapidamente um padrão da indústria.

A IA ajuda os médicos a trabalhar de forma mais inteligente, melhorando os resultados dos pacientes, desde os algoritmos de aprendizado de máquina que leem as varreduras do paciente com mais precisão até o processamento de linguagem natural, facilitando pesquisas em dados não estruturados em registros eletrônicos de saúde.

No entanto, esse avanço traz consigo a possibilidade muito real de que ferramentas de IA, treinadas com dados que refletem preconceitos cognitivos e sociais históricos e contemporâneos, podem perpetuar ou até mesmo amplificar o preconceito na prestação de cuidados de saúde. ISSO É INCRÍVEL!

O uso crescente de IA em muitos setores gerou muitos debates recentes sobre preconceito e justiça, conforme as ferramentas acionadas por IA ganham impulso, as partes interessadas têm uma janela crítica de oportunidade para desenvolver abordagens para lidar com vieses em algoritmos.

A implementação de salvaguardas será vital para garantir que a IA ajude a melhorar os resultados dos pacientes em diversas comunidades e evite a perpetuação das desigualdades atuais.

Preconceito humano e como isso afeta a tomada de decisões em saúde

Embora existam muitos benefícios reais e potenciais do uso de IA na área da saúde, um risco importante é a tomada de decisão falha ou controversa causada pela tendência humana embutida nos resultados da IA. O preconceito ocorre quando discriminamos um determinado grupo – seja conscientemente por meio de ideias preconcebidas explícitas, como racismo e sexismo, inconscientemente, por meio de pensamentos arraigados com base em suposições ou estereótipos, ou inadvertidamente por meio do uso de dados desviados para um segmento específico da população. Considere os seguintes exemplos:

  1. Pacientes negros em salas de emergência têm menor probabilidade de receber tratamento da dor em comparação com pacientes brancos. Uma revisão sistemática de estudos de controle da dor descobriu que pacientes negros tinham 40 por cento menos probabilidade de receber medicação para dor nos departamentos de emergência dos EUA em comparação com pacientes brancos. Pacientes hispânicos eram 25% menos prováveis. “Os médicos do pronto-socorro podem escolher quais pacientes obterão alívio da dor com base em preconceitos conscientes, inconscientes e implícitos, bem como estereótipos negativos com base na raça, etnia e classe”, disse a Dra. Carmen Green, professora de anestesiologia da Universidade de Escolas de medicina e saúde pública de Michigan em Ann Arbor. QUE HORROR!
  2. O estigma e o preconceito às vezes podem afetar o tratamento de pacientes obesos. A complexidade clínica da obesidade pode ser negligenciada quando os profissionais de saúde simplificam demais e presumem que esses pacientes não podem se conformar às mudanças no estilo de vida, como modificar sua dieta ou praticar exercícios para controlar o peso. Os provedores também podem atribuir erroneamente outros problemas de saúde à obesidade, em vez de investigar outras causas potenciais, atrasando o diagnóstico e o tratamento. QUE HORROR!

Como o preconceito cognitivo pode influenciar a IA

A intenção da IA ​​é ajudar os profissionais de saúde a tomar decisões mais objetivas e fornecer cuidados mais eficientes, a tecnologia de IA depende de dados para treinar algoritmos de máquina para tomar decisões.

Se você quiser ensinar uma máquina a estimar um fator como a prevalência de doenças em vários dados demográficos, você a alimenta com milhões de registros de dados e diz a ela como identificar os grupos-alvo e fatores contribuintes.

A partir disso, a máquina aprende como fazer distinções relevantes, se os dados subjacentes são inerentemente tendenciosos ou não contêm uma representação diversa de grupos-alvo, os algoritmos de IA não podem produzir resultados precisos.

Por exemplo, se os dados usados ​​para uma tecnologia de IA forem coletados apenas de centros médicos acadêmicos, o modelo de IA resultante aprenderá menos sobre as populações de pacientes que normalmente não procuram atendimento em centros médicos acadêmicos. Da mesma forma, se usar uma fonte de dados de saúde militar, o modelo de IA renderá menos sobre a população feminina, visto que a maioria dos militares é do sexo masculino.

Esses dados tendenciosos podem levar a atrasos ou atrasos na prestação de cuidados, resultando em resultados prejudiciais para os pacientes, portanto, é importante garantir que os dados usados ​​para treinar IA sejam representativamente diversos para ajudar a mitigar os danos potenciais ao público (e especialmente às populações historicamente marginalizadas).

O custo humano da IA ​​tendenciosa em saúde

O preconceito embutido na inteligência artificial tem implicações sociais, jurídicas e monetárias.

Veja o caso recente da divisão Optum do UnitedHealth Group, a organização desconhecia os vieses nos dados usados ​​para desenvolver um produto comercializado e vendido a sistemas hospitalares para ajudar a identificar pessoas vulneráveis ​​que requerem gestão de cuidados. O algoritmo usou dados de gastos anteriores para prever a gravidade da doença sem considerar fatores sociais mais amplos que resultam em desigualdades raciais na quantidade de cuidados recebidos. Já que menos dinheiro foi gasto historicamente com pacientes negros com o mesmo nível de necessidade que seus colegas brancos, o algoritmo atribuiu falsamente os pacientes negros ao mesmo nível de risco que pacientes brancos mais saudáveis. Um estudo deste algoritmo enviesado particular determinou que poderia subestimar pela metade o número de pacientes negros que precisam de mais cuidados. Alterar o algoritmo para remediar o preconceito aumentaria a porcentagem de pacientes negros que recebem ajuda adicional de 17,7% para 46,5%. MUITO RUIM ISSO!

Embora os custos humanos potenciais da IA ​​tendenciosa devam permanecer nossa preocupação central, também devemos reconhecer as implicações jurídicas e financeiras que algoritmos inadequados, imprecisos ou discriminatórios podem ter para as organizações.

A UnitedHealth não atendeu às expectativas de sua base de clientes, que dependia da empresa para fornecer informações precisas sobre quais pacientes deveriam ser encaminhados para os serviços de gerenciamento de atendimento. Os reguladores de Nova York solicitaram recentemente à UnitedHealth que prove que o algoritmo não é discriminatório ou pare de usá-lo. Se for constatado que a empresa está violando as leis antidiscriminação de Nova York, ela poderá enfrentar penalidades financeiras do estado.

Para cumprir a promessa da IA ​​na área da saúde, devemos trabalhar em colaboração para lidar com o preconceito.

Com o uso da IA ​​em rápida expansão em todo o setor de saúde, é imperativo que as partes interessadas tomem medidas para lidar com o viés algorítmico agora.

Se o objetivo é garantir que a IA crie soluções de saúde mais equitativas do que as que temos hoje, precisamos de melhores mecanismos para equilibrar seus riscos e benefícios. Exigirá colaboração entre cientistas de dados, provedores de saúde, consumidores e reguladores para resolver as questões complexas de viés de IA; justiça e precisão do algoritmo; ética e segurança; e governança e supervisão.

Para ler o artigo original copie e cole no seu navegador o link abaixo:

https://medium.com/pcmag-access/healthcare-algorithms-are-biased-and-the-results-can-be-deadly-da11801fed5e

VOCES CONHECEM NOSSOS CURSOS EM TECNOLOGIA NA SAÚDE?

Inovações para Tecnologia em Saúde

Gestão da Tecnologia em Saúde

Impactos da Tecnologia em Saúde

Inovações para Tecnologia em Saúde

Princípios de Tecnologia em Saúde

CONHEÇA NOSSOS CURSOS. CLIQUE NAS IMAGENS PARA SABER MAIS!

Compartilhe em suas Redes Sociais