Alianza contra la desinformación generada por IA

Fuente:

La Inteligencia Artificial multiplica los riesgos de desinformación en salud

Alianza contra la desinformación generada por IA

Los rostros generados por IA son indistinguibles de los reales y más confiables

Artículos científicos asistidos por ChatGPT contienen referencias inexistentes

Los estafadores de salud pueden crear vídeos que muestren bondades de productos y servicios con doctores creados por ordenador

La Inteligencia Artificial (IA) multiplica los riesgos de la desinformación en salud con vídeos, fotos, audios y textos que parecen verdaderos sin serlo, según un análisis del Instituto #SaludsinBulos y la Red de Alfabetización para la Salud que se presenta en la Jornada de Alfabetización en Salud organizada por la Consejería de Sanidad de Murcia. Ambas organizaciones impulsarán la colaboración entre expertos en IA, comunicación en salud y profesionales sanitarios para identificar la desinformación en salud y aprovechar las nuevas tecnologías para concienciar sobre el pensamiento crítico en salud, a través del primer hub de Inteligencia Artificial en Salud.

Un reciente estudio dirigido por la Universidad de Lancaster (Reino Unido) demostró que con IA, "el texto, el audio, la imagen y el video sintetizados se están utilizando como armas para lograr imágenes íntimas no consensuadas, fraude financiero y campañas de desinformación". En su análisis descubrieron que los rostros sintetizados por IA "son indistinguibles, y más confiables, que los rostros reales". Aunque cada vez hay más propuestas de sistemas de análisis de estos vídeos, audios e imágenes que parecen reales (deepfakes), un trabajo anterior publicado en Frontiers in Big Data advierte que "los investigadores demuestran que los métodos de generación de deepfakes son más potentes y de desarrollo más rápido que los métodos de prevención, mitigación y detección".

Otros estudios señalan que tecnologías basadas en IA, como ChatGPT, pueden ayudar a los científicos a hacer diagnósticos más precisos, elegir mejores tratamientos y preparar investigaciones en salud pero también incluyen falsedades. Así, una reciente investigación del Instituto de Investigación Biosanitaria de la Universidad de Granada advierte del impacto que esta tecnología puede tener en la publicación de estudios con falsedades. "Al usar ChatGPT en la escritura científica, queremos resaltar que, si los artículos no se revisan adecuadamente, existe un alto riesgo de presentar información incorrecta y referencias inexistentes", indican los autores, ya que crea textos que parecen consistentes, aunque no lo sean. Además, destacan, "una vez que un artículo ha sido enviado a una revista, los editores y revisores no tendrán tiempo para verificar su exactitud frase por frase, referencia por referencia. Esperamos sinceramente que ChatGPT (y otros LLM similares) no se conviertan en una herramienta de desinformación".

Estrategia nacional de información fiable en salud

La Red de Alfabetización en Salud, de la que forman parte hospitales y universidades de toda España, y el Instituto #SaludsinBulos, en el que colaboran cerca de 70 organizaciones científicas, han elaborado una serie de recomendaciones para elevar el pensamiento crítico entre la población y ayudar a identificar la desinformación en salud. Entre ellas figura crear una estrategia nacional de información fiable en salud en la que participen representantes de asociaciones de pacientes, sociedades científicas, colegios profesionales, divulgadores sanitarios y organizaciones dedicadas a la alfabetización en salud y a la lucha contra la desinformación en salud. En esa estrategia "ocupan un lugar clave las campañas de concienciación y educación a la población, especialmente a pacientes y personas vulnerables", explica Eulàlia Hernández, coordinadora de la Red de Alfabetización en Salud.

"Los estafadores de la salud, quienes buscan engañar con afirmaciones falsas sobre salud, lo tienen ahora muy fácil para crear y viralizar imágenes y vídeos de supuestas pruebas de las bondades de productos y servicios falsos, incluso con doctores creados por ordenador o verdaderos que nunca han dicho lo que se les atribuye. También los conspiranoicos. Ya no tendrán que basarse solo en el texto para decir que las vacunas tienen microchips o metales, podrán crear vídeos realistas que lo muestren, aunque sea inventado", advierte Carlos Mateos, coordinador del Instituto #SaludsinBulos.

El hub eSalud sin Bulos se puso en marcha en 2021 para unir a expertos en Inteligencia Artificial, profesionales sanitarios y comunicadores en salud en la búsqueda de soluciones que ayuden a identificar y combatir la desinformación en salud. Uno de sus frutos es el Hackathon de Salud, en el que los profesionales sanitarios cocrean herramientas digitales para concienciar, identificar y contrarrestar los bulos en salud.

Alianza contra la desinformación generada por IA - 1, Foto 1
Murcia.com