Datos médicos emergentes (EMD)

Los datos médicos emergentes (EMD) son información de salud recopilada sobre un individuo a partir de datos de comportamiento del usuario aparentemente no relacionados. EMD utiliza métodos sofisticados, que incluyen inteligencia artificial (IA) y aprendizaje automático (ML), para analizar las actividades de los usuarios y crear un perfil detallado de la salud física y mental de un individuo. El término fue acuñado en 2017 por Mason Marks, profesor asistente de la Facultad de Derecho de la Universidad de Gonzaga.

Las empresas pueden extraer datos médicos emergentes de una variedad de fuentes, incluidas publicaciones de Facebook, compras con tarjeta de crédito, el contenido de correos electrónicos o una lista de videos vistos recientemente en YouTube. Normalmente, una persona que mira estos datos sin procesar no vería ninguna conexión con la salud del usuario. Sin embargo, las herramientas de inteligencia artificial y los algoritmos de big data se pueden utilizar para transformar esta información que antes carecía de sentido en datos médicos confidenciales.

La recopilación de EMD ofrece varios beneficios, incluida la capacidad de rastrear la propagación de una enfermedad infecciosa, identificar a las personas en riesgo de suicidio u homicidio y monitorear el abuso de drogas. Sin embargo, el atractivo principal detrás de los datos médicos emergentes es la oportunidad para que las organizaciones mejoren la focalización del comportamiento y optimicen el perfil y el marketing de los clientes. Las compañías de seguros pueden usar EMD para determinar el riesgo de accidente de una persona y calcular las primas del seguro. Los anunciantes pueden tomar datos médicos personales y utilizarlos para publicar anuncios de comportamiento basados ​​en el historial médico de la persona.

Como resultado, EMD ha comenzado a generar muchas preocupaciones en torno a la privacidad personal y del paciente. Los datos de los pacientes recopilados por los proveedores de atención médica están protegidos por la Ley de Responsabilidad y Portabilidad de Seguros de Salud (HIPAA); sin embargo, EMD recibe poca o ninguna protección legal.

Además, la revelación del Proyecto Nightingale de Google a fines de noviembre de 2019 ha aumentado las preocupaciones y ha suscitado el debate sobre si los datos recopilados sin el consentimiento del paciente pueden convertirse éticamente en EMD y utilizarse para obtener beneficios económicos. Project Nightingale es una asociación entre Google y la organización de atención médica Ascension que brindó a Google acceso a más de 50 millones de registros de pacientes sin el conocimiento del médico o del paciente.

¿Qué tipo de datos incluye EMD?

Cuando una persona interactúa con la tecnología, deja una huella digital de sus acciones y comportamientos. Los algoritmos de IA, ML y big data recopilan y analizan estos datos sin procesar para crear EMD. Como resultado, casi cualquier actividad realizada por un individuo con tecnología creará información que se puede transformar en datos médicos sensibles.

Ejemplos específicos de información recopilada en el proceso emergente de minería de datos médicos incluyen:

  • "Me gusta" y comentarios de Facebook
  • Mensajes de Twitter
  • Compras de Amazon y Target.com
  • Paseos en uber
  • Mensajes de Instagram

Todos estos datos se pueden analizar para formar un perfil de la salud física y mental del usuario; a medida que se agrega más información, se recopila más EMD y más claro se vuelve el perfil.

EMD y Project Nightingale de Google

Project Nightingale es una asociación entre Google y Ascension, el segundo sistema de salud más grande de los Estados Unidos. El proyecto secreto se mantuvo oculto hasta noviembre de 2019, cuando se reveló que a través de la asociación, Google había obtenido acceso a más de 50 millones de registros médicos de pacientes de Ascension.

La asociación le da a Google un poder sin precedentes para determinar las correlaciones entre el comportamiento del usuario y las condiciones médicas personales. Las patentes presentadas en 2018 revelan que Google tiene como objetivo utilizar Project Nightingale para aumentar sus capacidades emergentes de extracción de datos médicos y, finalmente, identificar o predecir condiciones de salud en pacientes que aún no han visto a un médico.

Si bien Project Nightingale podría brindar numerosos beneficios médicos y mejorar el sistema de atención médica, también ha planteado inquietudes con respecto a la privacidad personal. Es probable que Google oculte sus descubrimientos como secretos comerciales y solo los comparta con su empresa matriz Alphabet y sus subdivisiones, incluidos Nest, Project Wing, Sidewalk Labs y Fitbit.

Cada una de estas subdivisiones proporciona un servicio con una operación de minería de datos que recopila y analiza la información del usuario. Por lo tanto, una de las principales preocupaciones en torno al Proyecto Nightingale es su potencial para utilizar su recopilación de datos médicos personales para crear un sistema de vigilancia de la salud del consumidor sin precedentes que abarque múltiples industrias y tecnologías.

En noviembre de 2019, se abrió una investigación federal para investigar el Proyecto Nightingale y el intento de Google de recopilar la información médica protegida (PHI) de millones de estadounidenses.

Preocupaciones sobre EMD y privacidad

Los riesgos potenciales de EMD son los siguientes:

  • Las empresas pueden aprovechar las lagunas en las leyes de privacidad y la falta de conocimiento de los usuarios sobre EMD para acceder a los registros médicos personales que suelen ser confidenciales.
  • Las plataformas en línea pueden beneficiarse vendiendo EMD a terceros que podrían utilizarlo como base para la discriminación en una variedad de decisiones, incluido el empleo, los seguros, los préstamos y la educación superior.
  • Cuanto más aprendan las personas sobre EMD, más probabilidades habrá de que empiecen a cambiar sus comportamientos en línea; esto podría limitar en gran medida el libre intercambio de ideas a través de Internet.
  • Cuando una empresa coloca a los usuarios en grupos en función de sus afecciones médicas, actúan como diagnosticadores médicos, una función que debe reservarse para profesionales capacitados y con licencia.

Los datos médicos emergentes tienen el potencial de mejorar la atención médica con una variedad de posibles beneficios. Por ejemplo, los anuncios de centros de recuperación basados ​​en evidencia podrían estar dirigidos a usuarios con problemas de abuso de sustancias y las personas con enfermedad de Alzheimer no diagnosticada pueden ser remitidas a un médico para su evaluación. Sin embargo, recopilar la información necesaria para que esto sea posible sin el consentimiento explícito no es ético y viola la privacidad individual. Además, la información recopilada no está protegida por HIPAA y las empresas que recopilan los datos no están sujetas a sanciones relacionadas.

Leyes y regulaciones de salud y privacidad

Las diversas preocupaciones de privacidad en torno a EMD y la recopilación de datos personales han suscitado la discusión sobre la ética de la salud pública y los límites del uso responsable de los datos médicos emergentes. Varios gobiernos han respondido con nuevas leyes para proteger aún más los datos personales.

En abril de 2016, la Unión Europea aprobó el Reglamento general de protección de datos (GDPR), que aumenta los derechos de los consumidores a controlar sus datos y cómo se utilizan; las empresas que no cumplan son sancionadas con grandes multas. El RGPD entró en vigor en mayo de 2018.

Actualmente, no existen leyes en los Estados Unidos para regular la extracción de EMD. Sin embargo, California aprobó la Ley de Privacidad del Consumidor de California (CCPA) en junio de 2018 que respalda el derecho de los residentes de California a controlar su información de identificación personal (PII). Según la CCPA, los ciudadanos tienen derecho a saber qué información personal se recopila y quién la recopila, así como el derecho a acceder a su PII y rechazar su venta a terceros.

Además, las senadoras estadounidenses Amy Klobuchar y Lisa Murkowski propusieron recientemente la Ley de protección de datos personales de salud, que tiene como objetivo proteger los datos de salud recopilados por aplicaciones de bienestar, rastreadores de actividad física, plataformas de redes sociales y empresas de pruebas de ADN directas al consumidor (D2C).

Si bien esta nueva ley podría beneficiar a los consumidores, también presenta el riesgo de crear una excepción para EMD. Por ejemplo, una sección de la ley excluye "productos sobre los cuales los datos de salud personal se derivan únicamente de otra información que no son datos de salud personales, como los datos del Sistema de posicionamiento global [GPS]". Por lo tanto, si se aprueba la Ley de Protección de Datos de Salud Personal, aún permitiría a las empresas continuar extrayendo libremente datos médicos emergentes.

Una última preocupación en torno a EMD es su potencial para promover la discriminación algorítmica, que se produce cuando un sistema informático produce errores de forma sistemática y repetida que generan resultados injustos, como favorecer a un grupo de usuarios sobre otro grupo más vulnerable.

Los algoritmos de aprendizaje automático utilizados para encontrar EMD clasifican a los usuarios en categorías relacionadas con la salud a las que se les asigna un peso positivo y negativo, o importancia. La discriminación se produce cuando un algoritmo diseñado para encontrar nuevos candidatos a puestos de trabajo asigna un peso negativo a grupos de personas con discapacidad, lo que les impide acceder a ofertas de empleo y solicitudes para las que podrían haber estado calificados. La discriminación algorítmica también puede hacer que las empresas nieguen injustamente a las personas el acceso a recursos importantes, como la vivienda y los seguros, sin darse cuenta.

Ejemplos de datos médicos emergentes

La corporación minorista estadounidense Target contrató a estadísticos para encontrar patrones en el comportamiento de compra de sus clientes. A través de la minería de datos, se descubrió que las compradores embarazadas eran más propensas a comprar lociones corporales sin perfume al comienzo de su segundo trimestre. Antes de analizar estos datos, la loción corporal sin perfume no tenía una conexión reconocida con una condición de salud. Sin embargo, al usar esta información, Target pudo llegar a los consumidores identificados como mujeres embarazadas con cupones y anuncios antes de que otras empresas se enteraran de que las mujeres estaban embarazadas.

Estudios recientes que involucran a Facebook también revelan cómo se puede usar el comportamiento en línea no médico para encontrar usuarios con problemas de abuso de sustancias y otros riesgos de enfermedades. Por ejemplo, un estudio mostró que el uso de malas palabras, palabras sexuales y palabras relacionadas con procesos biológicos en Facebook era indicativo de consumo de alcohol, drogas y tabaco. Además, el estudio determinó que las palabras relacionadas con el espacio físico, como "arriba" y "abajo", estaban más fuertemente vinculadas al abuso de alcohol, mientras que las palabras enojadas, como "matar" y "odiar", estaban más vinculadas al abuso de alcohol. fuertemente vinculado al uso indebido de drogas.

Facebook también descubrió que el uso de lenguaje religioso, especialmente palabras relacionadas con la oración, Dios y la familia, podía predecir qué usuarios tenían o podrían desarrollar diabetes. Otras áreas de enfoque incluyen el análisis de publicaciones ordinarias de Facebook para determinar cuándo determinados usuarios se sienten suicidas.

Google está trabajando en un sistema de hogar inteligente que recopilaría huellas digitales de los miembros del hogar y analizaría los datos para predecir enfermedades no diagnosticadas, como el Alzheimer y la influenza, o problemas de abuso de sustancias.