La OMS advierte sobre los riesgos de la inteligencia artificial en el ámbito de la salud

La Organización Mundial de la Salud (OMS) se sumó al debate sobre la inteligencia artificial y llamó este martes 16 de mayo a la población a tomar precauciones ante los chatbots, como el popular ChatGPT, y a los desarrolladores a no actuar de manera precipitada sin antes evaluar los riesgos de esta tecnología.
.
«La OMS pide que se actúe con cautela al utilizar grandes herramientas de modelos lingüísticos (LLM, por sus siglas en inglés) basadas en inteligencia artificial para proteger y promover el bienestar, la seguridad y la autonomía de las personas y preservar la salud pública», advirtió la institución en un comunicado.
.
Sin embargo, la OMS matizó su posición al decir que el uso correcto de estos avances podría resultar en beneficios para la sociedad, aunque recordó que el desarrollo debe realizarse con «cautela», algo que dijeron no estar viendo.
.
«Aunque la OMS está entusiasmada con el uso adecuado de las tecnologías para apoyar a los profesionales sanitarios, los pacientes, los investigadores y los científicos, preocupa que la cautela que normalmente se ejercería con cualquier tecnología nueva no se esté ejerciendo de forma coherente con estas IA», alertaron.
.
En referencia a plataformas como ChatGPT, cuya aparición en los últimos meses ha alarmado a expertos, intelectuales políticos en todo el mundo, y generado una carrera multimillonaria de parte de las grandes empresas tecnológicas para desarrollar esta herramienta, la institución advirtió que estos sistemas pueden estar sesgados y contener información con datos falsos, lo que, alertan, podría “generar y difundir desinformación muy convincente”.
.
«Es imperativo que se examinen cuidadosamente los riesgos que tiene el uso de estas herramientas como método de apoyo para la toma de decisiones médicas», pide la OMS, que remarca que un uso precipitado de esta tecnología podría llevar a profesionales de la salud a cometer errores, causar daños en los pacientes y erosionar la confianza en la inteligencia artificial y sus potenciales beneficios en el largo plazo.

En ese sentido, la OMS observa que si bien los LLM pueden generar respuestas «autorizadas y plausibles» para sus usuarios, las mismas podrían ser incorrectas o contener errores, algo que puede resultar en una situación grave al tratarse de cuestiones de la salud.

«La OMS propone que se aborden estas preocupaciones y se mida la evidencia clara del beneficio antes de su uso generalizado en la atención médica y la medicina de rutina, ya sea por parte de individuos, proveedores de atención o administradores del sistema de salud y formuladores de políticas», añade.