Primer escenario: construcción de una herramienta de IA dedicada al diagnóstico del COVID-19
Home » IA » Estudio de casos » Primer escenario: construcción de una herramienta de IA dedicada al diagnóstico del COVID-19

Iñigo de Miguel Beriain (UPV/EHU)

Esta parte de las Directrices ha sido revisada y validada por Marko Sijan, Asesor Superior Especialista (HR DPA) 

 

Descripción

La respuesta a la pandemia creó situaciones en las que muchos pacientes necesitaban atención sanitaria, pero resultaba difícil prestarla debido a la alta incidencia de la enfermedad entre el personal sanitario. En esta situación, un radiólogo, por ejemplo, no podía ocuparse del elevado número de radiografías que había que analizar debido a la ausencia de compañeros de baja por enfermedad. El uso de la IA para estos fines podría ser de gran ayuda en el futuro, pero hay que tener en cuenta un número elevado de cuestiones ético-jurídicas. En este escenario, analizaremos los diferentes pasos que debe cumplir un equipo de investigadores dispuestos a entrenar un algoritmo capaz de ayudar en el diagnóstico de enfermedades pulmonares.

Observaciones previas

La investigación con datos sanitarios presenta retos éticos especialmente importantes. Si además se trata de un caso en el que los pacientes padecen una enfermedad como la COVID, el dilema es particularmente acuciante. En el contexto de la asistencia sanitaria, es fácil entremezclar el consentimiento informado, asociado a la práctica clínica, con el consentimiento para la investigación biomédica. Esto es siempre motivo de preocupación. Ambas cosas son diferentes. La planificación de una actividad como el desarrollo de una herramienta de IA para el diagnóstico debe tener esto en cuenta. Esto es especialmente cierto en el caso de pacientes en situaciones más vulnerables de lo habitual. Nunca hay que olvidar que los objetivos de la investigación biomédica no pueden solaparse con los intereses y el bienestar de las personas.

Hay varias herramientas esenciales que los investigadores deben tener siempre presentes a la hora de diseñar un plan para el desarrollo de una herramienta de IA. La lista de comprobación de cuestiones éticas incluida en la Guía del Programa Horizonte 2020 “Cómo completar la autoevaluación ética” –How to complete your ethics self-assessment-, página 6[1] es muy recomendable. También se recomienda consultar otros documentos esenciales como:

  • Grupo de Expertos de Alto Nivel en IA: “Directrices éticas para una IA fiable”.[2]
  • Comisión Europea: LIBRO BLANCO sobre la inteligencia artificial – un enfoque europeo orientado a la excelencia y la confianza [3]
  •  Training and Resources in Research Ethics Evaluation (TRREE)[4] es una herramienta en línea que proporciona acceso gratuito a:
    • e-Learning: un programa de aprendizaje a distancia y certificación sobre la evaluación de la ética de la investigación
    • e-Resources: un sitio web participativo con recursos normativos y políticos internacionales, regionales y nacionales
  • En la página web de EUREC se pueden encontrar otras herramientas de formación en línea[5].

 

 

  1. https://ec.europa.eu/research/participants/data/ref/h2020/grants_manual/hi/ethics/h2020_hi_ethics-self-assess_en.pdf
  2. Grupo de Expertos de Alto Nivel en IA (2019) Directrices éticas para una IA fiable (https://op.europa.eu/es/publication-detail/-/publication/d3988569-0434-11ea-8c1f-01aa75ed71a1).
  3. https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_es.pdf
  4. https://elearning.trree.org/mod/page/view.php?id=70
  5. http://www.eurecnet.org/materials/index.html

 

Ir al contenido