Las grandes empresas tecnológicas están presionando contra reglas federales propuestas aumentar la supervisión de las herramientas de inteligencia artificial (IA) utilizadas en la atención al paciente, ESTADO informado.
Las empresas, incluidas Google, Amazon y Epic, están preparadas para obtener ganancias inesperadas de la expansión de la IA en el cuidado de la salud mediante la venta de una amplia variedad de herramientas a aseguradoras y proveedores para todo, desde la automatización de los procedimientos de documentación clínica hasta la evaluación de reclamaciones de seguros y la prestación de atención virtual.
A la industria de la tecnología se unieron los grandes proveedores de atención médica, las principales aseguradoras privadas y los proveedores de software médico para oponerse a la propuesta de la Oficina del Coordinador Nacional de Tecnología de la Información de la Salud (ONC) de imponer restricciones y ampliar la transparencia de las tecnologías de IA y aprendizaje automático (ML) que respaldan la toma de decisiones en la atención médica, lo que la ONC denomina "intervenciones de apoyo a las decisiones predictivas" o DSI.
La ONC, que se encuentra dentro del Departamento de Salud y Servicios Humanos de EE. UU. y supervisa los registros médicos electrónicos, en abril propuso reglas para "Datos de salud, tecnología e interoperabilidad".
Las reglas son abierto a comentarios públicos hasta el 20 de julio.
Las normas propuestas, que actualizan la Ley de curas del siglo XXI, buscan apoyar el mandato de la administración Biden de aumentar la confianza pública en la IA al dar a los médicos más información en sus sistemas de registro de salud electrónicos sobre la Algoritmos de IA para que puedan evaluar mejor la aplicabilidad de la tecnología para una población o circunstancia de pacientes en particular, dijo la ONC a los periodistas.
A estudio publicado el año pasado en el Journal of Medical Internet Research encontró que "a pesar de la gran cantidad de afirmaciones sobre los beneficios de la IA para mejorar los resultados clínicos, hay escasez de pruebas sólidas".
Pero esa falta de evidencia no ha impedido que los gigantes tecnológicos desarrollo de herramientas de IA, o que las empresas privadas de atención médica las usen cada vez más para "ayudar a tomar decisiones que alteran la vida con poca supervisión independiente". STAT determinado, después de revisar documentos corporativos secretos y cientos de páginas de registros federales y documentos judiciales.
Los defensores pregonan el expansión de la IA en el cuidado de la salud como una manera fácil de reducir costos y mejorar la atención, por ejemplo, reduciendo el tiempo que los pacientes pasan con los médicos, particularmente en la atención primaria.
Pero los críticos, como el abogado y el defensor de la salud Ady Barkan, dicen que hay una creciente evidencia de que la toma de decisiones de la IA en el cuidado de la salud ha perjudicado a los pacientes. “Los robots no deberían estar haciendo decisiones de vida o muerte”, dijo.
Al proponer las nuevas normas, la ONC también preocupaciones citadas Sobre Nosotros cada vez más pruebas que los modelos predictivos introducen y aumentan el potencial de muchos riesgos diferentes que tienen impactos negativos en los pacientes y las comunidades.
En respuesta, la ONC dijo que está proponiendo un nuevo criterio de "intervención de apoyo a la decisión" que crearía nuevas expectativas de transparencia y gestión de riesgos para la tecnología AI y ML que ayuda a la toma de decisiones en el cuidado de la salud.
Las nuevas regulaciones también se aplicarían a los modelos de tecnología de la información de atención médica que interactúan con la IA.
Los cambios clave propuestos por la ONC requerirían que todos estos sistemas pusieran a disposición de los usuarios información sobre cómo funcionan los algoritmos, en un lenguaje sencillo, similar a una "etiqueta nutricional".
Las reglas también requieren que se desarrollen nuevas prácticas de gestión de riesgos para todos los sistemas. Y la información sobre cómo se gestiona el riesgo tendría que estar disponible públicamente.
Los desarrolladores también estarían obligados a proporcionar un mecanismo para la retroalimentación del público.
“Si se finaliza”, según el Revisión de la ley nacional, la propuesta de regulaciones para DSI "tendrá un impacto significativo en el desarrollo, implementación y uso de herramientas de IA/ML en el cuidado de la salud".
Los gigantes tecnológicos dicen que las reglas de transparencia los obligarían a revelar "secretos comerciales"
Mas de 200 comentarios públicos presentado ante la ONC sobre la propuesta, principalmente por las empresas de tecnología y atención médica que estarán sujetas a las regulaciones, “dejar en claro la batalla que se desarrollará a medida que las empresas se apresuran a implementar herramientas de IA cada vez más poderosas en sectores críticos para la seguridad como la atención médica, donde los márgenes de beneficio potenciales son mucho más amplios que el margen de error”, dijo STAT.
Muchos de los propios científicos de Google, junto con multimillonarios de alta tecnología y desarrolladores de IA han expresado públicamente su preocupación de que la IA plantea un amenaza existencial para la humanidady y riesgos inmediatos a la salud y el bienestar humanos.
Sin embargo, en sus cartas a la ONC, las empresas de tecnología, las aseguradoras y las asociaciones de proveedores expresaron "preocupaciones" sobre las regulaciones propuestas. Dijeron que las reglas propuestas son "demasiado amplias" y que la transparencia requerida los obligaría a revelar "propiedad intelectual" y "secretos comerciales".
En sus comentarios, Google objetó a lo que llamó “una obligación de divulgación demasiado amplia o innecesaria” que aumentaría los costos para los desarrolladores y, por lo tanto, para los consumidores.
Google también dijo que incluir IA generativa o grandes modelos de lenguaje como BARDO, junto con lo que llamó herramientas de inteligencia artificial de "bajo riesgo", supondría una carga indebida para las empresas.
Pero incluso la Organización Mundial de la Salud (OMS) ha dicho que la falta de regulación adecuada de herramientas de modelo de lenguaje grande generadas por inteligencia artificial está poniendo en peligro el bienestar humano, llamando a programas como BARD y ChatGPT específicamente.
Amazon también escribió que al aplicar sus reglas a una amplia clase de tecnología que se basa en IA/ML predictivo, la ONC estaba llegando "más allá" de lo que sería apropiado para regular la industria y mitigar el riesgo.
Sistemas épicos, el proveedor de registros de salud electrónicos más grande del país, también argumentó en sus comentarios que las regulaciones propuestas por la ONC se aplicaban de manera demasiado amplia, afirmando que la ONC no debería divulgar públicamente cómo funciona la IA como requisito para obtener la certificación de los sistemas de TI de la salud.
"Se crearía un desequilibrio considerable en la transparencia del mercado y, en última instancia, un incentivo para innovar, si los desarrolladores de TI de salud certificados tienen que divulgar públicamente su propiedad intelectual, mientras que los desarrolladores de modelos predictivos no certificados no están obligados a hacer la misma divulgación". empresa escribió.
La falta de supervisión permite a las empresas manipular algoritmos para aumentar las ganancias
Los críticos del papel cada vez más irresponsable y no regulado de AI/ML en la atención médica, incluidos los investigadores que desarrollan AI y los proveedores de atención médica, argumentaron que las reglas propuestas no van lo suficientemente lejos para informar y proteger al público.
A carta presentado a la ONC por un grupo interdisciplinario de 34 académicos de la Universidad de Michigan, con cosignatarios de más de otras 30 instituciones de investigación de la salud en los EE. UU. y Europa, instó a la ONC a aplicar regulaciones más estrictas.
Argumentaron que el público también debería estar informado de qué datos se incluyen en estos modelos, lo que incluye exigir transparencia en torno a qué variables usan los modelos para hacer sus predicciones y también de dónde provienen los datos que se usan para entrenar y evaluar los sistemas AI/ML.
No informar al público de esta información ha provocado "reacciones y daños recientes por el uso de (modelos) predictivos en la atención médica", escribieron, como raza, género y clase. parcialidad y predicciones defectuosas basadas en datos mal seleccionados que condujeron a peores resultados de salud.
Pero la nueva evidencia también muestra cómo la falta de transparencia y regulación hace posible que las empresas manipulen los algoritmos para aumentar sus resultados, con graves consecuencias para la salud humana.
Una investigación de STAT en marzo encontró que AI está impulsando niveles vertiginosos de denegaciones de reclamos médicos en Medicare Advantage. La investigación reveló que las aseguradoras estaban usando algoritmos predictivos no regulados creados por naviSalud para determinar el punto en el que plausiblemente pueden cortar el pago del tratamiento para pacientes mayores.
La semana pasada, ESTADO informado que después de United Healthcare adquirido naviHealth en 2020, el problema empeoró e incluso los médicos no pudieron anular las determinaciones de atención realizadas por el algoritmo sin un serio rechazo por parte de la gerencia.
En sus comentarios a la ONC, United Healthcare también se opuso con vehemencia a varios aspectos de las reglas OTC propuestas, que aumentarían las regulaciones precisamente sobre este tipo de algoritmos.
La compañía dijo que la definición de DSI de la ONC era "vaga y demasiado amplia", y que movería el significado de DSI "más allá de los usos clínicos previstos" e impondría requisitos onerosos a las herramientas de bajo riesgo.
También se opuso a los requisitos propuestos de la ONC para divulgar información sobre cómo funcionan los algoritmos, citando "riesgos para el desarrollador" de tener que compartir información confidencial o de propiedad exclusiva con los usuarios.
Algunos activistas han estado movilizando a los Detener #DeathByAI campaña para detener los abusos de AI en Medicare Advantage, Sueños comunes reportados.
Pero eso es solo la punta del iceberg en este mercado en explosión, que Markets and Markets predice que valdrá la pena. $ 102 2028 millones de dólares por - por encima de su valor actual de $ 14.6 mil millones.
[…] Los grandes señores de la tecnología denuncian la falta de regulación de la IA, luego luchan contra los reguladores para retirarse […]