24/04/2019

Inteligência artificial na área de exames médicos pode ser facilmente enganada

Com informações da New Scientist

Ingenuidade artificial

Embora a inteligência artificial prometa melhorar os cuidados de saúde através da análise rápida de exames médicos, há cada vez mais evidências de que esses programas inteligentes tropeçam em detalhes aparentemente inócuos.

A equipe do professor Sam Finlayson, da Universidade Harvard (EUA), demonstrou isso enganando intencionalmente três sistemas de inteligência artificial projetados para escanear imagens médicas e fazer diagnósticos automatizados - bastou alterar alguns píxeis nas imagens para que os sistemas as classificassem erroneamente.

Em um exemplo, a equipe alterou ligeiramente a imagem de uma verruga que havia sido classificada inicialmente pela inteligência artificial, com 99% de confiança, como benigna. Com a alteração, o programa classificou a imagem alterada como maligna com 100% de confiança, apesar das duas imagens serem indistinguíveis para o olho humano - mesmo do patologista mais experiente.

Os outros dois sistemas de inteligência artificial, projetados para detectar danos aos olhos causados pelo diabetes em exames de retina e para detectar um pulmão colapsado a partir de raios X, foram igualmente enganados facilmente.

E não é preciso caprichar muito na manipulação das imagens: rotacioná-las é suficiente para confundir de forma semelhante a inteligência artificial. Mesmo que a chance de isso acontecer seja baixa, se os programas de inteligência artificial médica se disseminarem, as possibilidades de erro de diagnóstico - falsos positivos ou falsos negativos - sobem de forma correspondente, dizem os pesquisadores.

Cuidado com a inteligência artificial na área médica

Nem sempre é claro quais fatores os programas de inteligência artificial usam para tomar suas decisões porque essas decisões se baseiam em um treinamento estatístico com imagens que já foram analisadas por patologistas humanos.

Mas há casos piores: Outro estudo recente descobriu que um "sistema inteligente" projetado para detectar fraturas de quadril estava usando o modelo do aparelho de exame e a idade do paciente para fazer sua previsão, em vez de focar na própria fratura.

O modelo do aparelho era um bom indicador de quão doente estava um paciente porque ele revela se o escâner usado era uma versão portátil e, portanto, se a pessoa estava muito doente para ir ao hospital.

Infelizmente, os esforços para criar programas de inteligência artificial que são melhores em se defender contra esses enganos acabaram por produzir programas menos precisos no próprio diagnóstico, disse o professor Finlayson.

Juntando tudo, os pesquisadores dizem só haver uma recomendação quanto ao uso da inteligência artificial na saúde: Cautela, muita cautela.

Siga o Diário da Saúde no Google News

Ver mais notícias sobre os temas:

Softwares

Exames

Diagnósticos

Ver todos os temas >>   

A informação disponível neste site é estritamente jornalística, não substituindo o parecer médico profissional. Sempre consulte o seu médico sobre qualquer assunto relativo à sua saúde e aos seus tratamentos e medicamentos.
Copyright 2006-2024 www.diariodasaude.com.br. Todos os direitos reservados para os respectivos detentores das marcas. Reprodução proibida.