El uso de inteligencia artificial para combatir el coronavirus debe pasar por controles éticos, dicen los expertos



El despliegue rápido de inteligencia artificial y aprendizaje automático para hacer frente al coronavirus aún debe pasar por controles y equilibrios éticos, o corremos el riesgo de dañar a comunidades ya desfavorecidas en la prisa por derrotar la enfermedad.

Esto es según investigadores del Centro Leverhulme para el Futuro de la Inteligencia (CFI) de la Universidad de Cambridge en dos artículos, publicados hoy en el Revista médica británica, advirtiendo contra el uso ciego de la IA para la recopilación de datos y la toma de decisiones médicas mientras luchamos por recuperar algo de normalidad en 2021.

La relajación de los requisitos éticos en una crisis podría tener consecuencias nocivas no deseadas que perduran mucho más allá de la vida de la pandemia “.

Dr. Stephen Cave, autor principal del estudio y director, Centro Leverhulme para el futuro de la inteligencia, Universidad de Cambridge

“La repentina introducción de una IA compleja y opaca, que automatiza los juicios que alguna vez hacían los humanos y absorbía información personal, podría socavar la salud de los grupos desfavorecidos, así como la confianza pública a largo plazo en la tecnología”.

En otro artículo, en coautoría de la Dra. Alexa Hagerty de CFI, los investigadores destacan las posibles consecuencias que surgen de que la IA ahora toma decisiones clínicas a escala, prediciendo las tasas de deterioro de los pacientes que podrían necesitar ventilación, por ejemplo, si lo hace basándose en datos sesgados .

Los conjuntos de datos utilizados para “entrenar” y refinar los algoritmos de aprendizaje automático están inevitablemente sesgados contra los grupos que acceden a los servicios de salud con menos frecuencia, como las comunidades étnicas minoritarias y las de “nivel socioeconómico más bajo”.

“COVID-19 ya ha tenido un impacto desproporcionado en las comunidades vulnerables. Sabemos que estos sistemas pueden discriminar, y cualquier sesgo algorítmico en el tratamiento de la enfermedad podría dar un golpe brutal”, dijo Hagerty.

En diciembre, se produjeron protestas cuando el algoritmo del Centro Médico de Stanford dio prioridad a las trabajadoras a domicilio para la vacunación sobre las de las salas de Covid. “Los algoritmos se utilizan ahora a escala local, nacional y mundial para definir la asignación de vacunas. En muchos casos, la IA juega un papel central en la determinación de quién está mejor situado para sobrevivir a la pandemia”, dijo Hagerty.

“En una crisis de salud de esta magnitud, hay mucho en juego por la justicia y la equidad”.

Junto con sus colegas, Hagerty destaca el “arrastre de discriminación” bien establecido que se encuentra en la IA que utiliza la tecnología de “procesamiento del lenguaje natural” para recoger los perfiles de síntomas de los registros médicos, lo que refleja y exacerba los prejuicios contra las minorías que ya se encuentran en las notas del caso.

Señalan que algunos hospitales ya usan estas tecnologías para extraer información de diagnóstico de una variedad de registros, y algunos ahora están usando esta IA para identificar síntomas de COVID-19 infección.

De manera similar, el uso de aplicaciones de seguimiento y rastreo crea la posibilidad de conjuntos de datos sesgados. Los investigadores escriben que, en el Reino Unido, más del 20% de los mayores de 15 años carecen de habilidades digitales esenciales, y hasta el 10% de algunos “subgrupos” de la población no poseen teléfonos inteligentes.

“Ya sea que se origine a partir de registros médicos o tecnologías cotidianas, los conjuntos de datos sesgados aplicados de una manera única para todos para abordar el COVID-19 podrían resultar perjudiciales para los que ya están en desventaja”, dijo Hagerty.

En los artículos de BMJ, los investigadores señalan ejemplos como el hecho de que la falta de datos sobre el color de la piel hace que sea casi imposible que los modelos de IA produzcan cálculos precisos a gran escala de los niveles de oxígeno en sangre. O cómo una herramienta algorítmica utilizada por el sistema penitenciario de EE. UU. Para calibrar la reincidencia, y que se ha demostrado que tiene prejuicios raciales, se ha reutilizado para gestionar su riesgo de infección por COVID-19.

El Centro de Leverhulme para el futuro de la inteligencia lanzó recientemente el primer curso de maestría en ética en IA del Reino Unido. Para Cave y sus colegas, el aprendizaje automático en la era Covid debería verse a través del prisma de la ética biomédica, en particular los “cuatro pilares”.

El primero es la beneficencia. “El uso de la IA está destinado a salvar vidas, pero eso no debe utilizarse como una justificación general para establecer precedentes no deseados, como el uso generalizado de software de reconocimiento facial”, dijo Cave.

En India, los programas de identidad biométrica se pueden vincular a la distribución de vacunas, lo que genera preocupación por la privacidad y seguridad de los datos. Otros algoritmos de asignación de vacunas, incluidos algunos utilizados por la alianza COVAX, son impulsados ​​por IA de propiedad privada, dice Hagerty. “Los algoritmos patentados hacen que sea difícil mirar dentro de la ‘caja negra’ y ver cómo determinan las prioridades de las vacunas”.

La segunda es la “no maleficencia” o evitar daños innecesarios. Un sistema programado únicamente para preservar la vida no considerará las tasas de ‘covid largo’, por ejemplo. En tercer lugar, la autonomía humana debe formar parte del cálculo. Los profesionales deben confiar en las tecnologías y los diseñadores deben considerar cómo los sistemas afectan el comportamiento humano, desde las precauciones personales hasta las decisiones de tratamiento.

Por último, la IA basada en datos debe estar respaldada por ideales de justicia social. “Necesitamos involucrar a comunidades diversas y consultar a una variedad de expertos, desde ingenieros hasta equipos médicos de primera línea. Debemos ser abiertos sobre los valores y las compensaciones inherentes a estos sistemas”, dijo Cave.

“La IA tiene el potencial de ayudarnos a resolver problemas globales, y la pandemia es sin duda una importante. Pero depender de una IA poderosa en estos tiempos de crisis conlleva desafíos éticos que deben tenerse en cuenta para asegurar la confianza del público”.

Fuente:

Referencia de la revista:

Cueva, S., et al. (2021) Uso ético de la IA para abordar el covid-19. Revista médica británica. doi.org/10.1136/bmj.n364.

.



Source link