A finales de 2022, asistimos con asombro a la plena eclosión de los modelos de inteligencia artificial (IA) generativa1, con la irrupción de los modelos de texto a texto como ChatGPT (GePeTo o Gepeto para los amigos). Un par de meses bastaron para confirmar que estábamos ante una revolución sin precedentes en el ámbito de la comunicación, pero también en el de la comunicación médica.
Podría traer muchos más en respaldo de esto que escribo, pero me bastarán cinco ejemplos, creo. Siguen a continuación los tres primeros y dejo para el mes que viene los dos restantes, más clínicos.
COMUNICACIÓN MÉDICO-PACIENTE CON GEPETOJosé María Cepeda (@chemacepeda en Twitter) es enfermero, experto universitario en asistencia inicial en urgencias y emergencias, máster universitario en tecnologías de la información y la comunicación, y uno de nuestros grandes entendidos en sanidad digital y competencias digitales clave de los profesionales sanitarios.
El 14 de diciembre de 2022, recién nacido GePeTo, sometió al modelo de conversación a varios ejercicios de comprensión y reformulación de textos médicos especializados2 que me parecieron de suma utilidad para calibrar el alcance de la revolución que estaba teniendo lugar ante nuestros ojos. En uno de ellos, Cepeda pidió a GePeTo que adaptara un informe real de alta, y en otro, que leyera un complejo informe médico, extractara la información y la reformulara en un registro lingüístico adaptado al nivel de conocimientos de un adolescente. El ejemplo empleado, tomado de Internet, correspondía a un informe clínico real de consultas externas del Servicio de Hematología Clínica del Hospital General de Villalba, dependiente de la Consejería de Sanidad de la Comunidad Autónoma de Madrid. Y la respuesta del modelo de IA generativa fue en todos los casos espectacular.
RESÚMENES CIENTÍFICOS GENERADOS CON GEPETOA principios de enero de 2023, la revista Nature se hacía eco de un artículo3 subido a finales de diciembre, sin revisión, al servidor bioRxiv. Los autores pidieron a GePeTo que redactara sendos resúmenes de 50 artículos publicados en cinco revistas biomédicas punteras: The Journal of the American Medical Association (JAMA), The New England Journal of Medicine, The British Medical Journal (BMJ), The Lancet y Nature Medicine.
Cuando pasaron un detector automático de plagio a estos resúmenes generados por GePeTo, el resultado fue de un 100% de originalidad. A continuación, presentaron estos 50 resúmenes creados con IA y los 50 resúmenes originales publicados en las revistas a un grupo de científicos con experiencia como revisores externos para importantes publicaciones, y les pidieron que trataran de adivinar cuáles eran humanos y cuáles generados por IA. Un chimpancé tecleando a ciegas (o lanzando al aire una moneda) obtendría una tasa esperable de aciertos del 50%. Los revisores humanos identificaron correctamente como obra de GePeTo apenas el 68% de los resúmenes generados, y reconocieron erróneamente como escritos por IA un 14% de los resúmenes originales publicados. No está nada mal, la verdad, para un bot con menos de un mes de vida; todo apunta a que en los años venideros lo irá haciendo cada vez mejor, y que a corto plazo los textos generados por IA serán indistinguibles de los textos humanos para el común de los lectores.
GEPETO, AUTOR DE ARTÍCULOS CIENTÍFICOSA principios de diciembre de 2022, un grupo de investigadores españoles de la Universidad de Santiago de Compostela subió a arXiv un original no revisado4 en el que los firmantes reconocían que la primera versión del artículo la había escrito en un santiamén ChatGPT siguiendo sus instrucciones.
Pocas semanas después, el primer número de la revista Nurse Education in Practice publicado en 2023 traía un editorial5 que firmaban dos autores: Siobhan O’Connor (doble graduada en enfermería e informática, doctora en informática biosanitaria y profesora de la Universidad de Mánchester) y ChatGPT.
Y el 18 de enero de 2023, la revista Nature alertó6 de que eran ya varios los artículos científicos firmados por ChatGPT en revistas de prestigio; los directores de Nature y Science coincidieron en señalar que un modelo de IA generativa, por muy requetebién que escriba, no cumple los requisitos exigibles para una atribución de autoría en condiciones. Tampoco los cumplen, en propiedad, muchos de los autores humanos que firman algunos artículos de autoría múltiple, pero eso es ya otra historia.
Fernando A. Navarro
Consejo Editorial, Revista Española de Cardiología
Obras de referencia recomendadas:
Diccionario de dudas y dificultades de traducción del inglés médico (3.a edición), 2013-2024; en la plataforma Cosnautas disponible en www.cosnautas.com/es/catalogo/librorojo.
«Laboratorio del lenguaje» de Diario Médico, 2006-2024, disponible en www.diariomedico.com/opinion/fernando-navarro.html.