Investigadores médicos en algunas instituciones de Canadá, Estados Unidos e Italia están utilizando datos creados por la inteligencia artificial (IA) de la información real del paciente en sus experimentos sin la necesidad de permiso de sus juntas de ética institucional, Naturaleza ha aprendido.
Para generar lo que se llama 'datos sintéticos', los investigadores capacitan modelos de IA generativos que utilizan información médica humana real, luego soliciten a los modelos que creen conjuntos de datos con propiedades estadísticas que representen, pero no incluyen datos humanos.
Por lo general, cuando la investigación involucra datos humanos, una junta de ética debe revisar cómo los estudios afectan los derechos, la seguridad, la dignidad y el bienestar de los participantes. Sin embargo, las instituciones que incluyen el Hospital de Investigación de Humanitas IRCCS en Milán, Italia, el Hospital de Niños del Este de Ontario (CHEHO) en Ottawa y el Hospital de Ottawa, tanto en Canadá como en la Facultad de Medicina de la Universidad de Washington (Washu Medicine) en St. Louis, Missouri, han renunciado a estos requisitos para investigaciones que involucran datos sinthéticos.
Las razones por las que las instituciones usan para justificar esta decisión difieren. Sin embargo, los beneficios potenciales del uso de datos sintéticos incluyen proteger la privacidad del paciente, ser más fácilmente capaz de compartir datos entre sitios y acelerar la investigación, dice Khaled El Emam, un investigador de IA médica en el Choo Research Institute y la Universidad de Ottawa.
La Universidad de Washington, que comenzó a renunciar a la revisión ética para dicha investigación en 2020, se encontraba «entre las primeras instituciones estadounidenses a adoptar datos sintéticos a escala» en ciencias médicas, dice Philip Payne, quien es el vicecanciller de la Universidad de informática biomédica y ciencias de datos, y director de su Instituto de Informática, Ciencias de Datos y Bioestadísticas.
Payne dice que los conjuntos de datos sintéticos no se consideran la investigación de sujetos humanos bajo la regla común federal de los Estados Unidos de 1991, que rige los estándares éticos para la investigación que involucra a las personas. Esto, agrega, se debe a que los datos no contienen información real o rastreable del paciente. Por lo tanto, la junta de revisión institucional de Washu Medicine no considera que los proyectos que usan dichos conjuntos de datos son 'investigación de sujetos humanos' y no requiere que se revisen.
Variaciones nacionales
En Italia, los científicos del Centro Humanitas AI han estado explorando datos sintéticos en la investigación desde 2021, dice Saverio d'Amico, el líder del equipo de IA. D'Amico y sus colegas también pueden evitar buscar el consentimiento de las juntas de revisión ética si crean datos utilizando información recopilada de pacientes que han consentido en el análisis de datos para fines de IA, dice.
Humanitas ha tenido más libertad para usar datos sintéticos sin revisión ética que muchas otras organizaciones italianas, dice D'Amico, porque es un hospital de investigación de alto nivel. El Ministerio de Salud de Italia otorga este estatus a un pequeño número de institutos, que los marca como puntos de referencia para la innovación y la atención del paciente de calidad.
Mientras tanto, en Ontario, la Ley de Protección de Información de Salud Personal de 2004 dice que la creación de información no personal, que oculta las identidades individuales, no requiere el consentimiento del paciente.
Los hospitales canadienses decidieron renunciar a la revisión de la placa de ética después de los análisis legales en 2024, dice Cécile Bensimon, presidente de la Junta de Ética de la Investigación de CHEO. Los análisis concluyeron que los datos sintéticos generados por IA podrían no constituir información de salud personal. Por lo tanto, como la medicina Washu, la Junta de CHEO concluyó que «el uso de datos sintéticos en la investigación no requiere supervisión de la Junta de Ética de la Investigación del Hospital porque no cumple con la definición de investigación humana», dice Bensimon.
Sin embargo, los estudios en los que los investigadores acceden a los datos de los pacientes para crear conjuntos de datos sintéticos necesitan la aprobación de la junta de ética, agrega Bensimon. Pero debido a que se consideran de bajo riesgo, generalmente cumplen con los criterios para renunciar al consentimiento de los participantes. Las condiciones que aplica el hospital de Ottawa difieren ligeramente. «La IA en la investigación más ampliamente no es inherentemente problemática», agrega Bensimon. «Solo requiere la aplicación de estándares y salvaguardas existentes».




