¿Podría demandar a los algoritmos de diagnóstico o a los robots médicos en el futuro?

Como la FDA ya aprobó los primeros algoritmos de diagnóstico de I.A., los legisladores y los abogados especializados en negligencia médica deberían considerar estos escenarios ya que podrían hacerse realidad antes de lo esperado.

Cuando un algoritmo de diagnóstico falla

En 2031, Andrea fue a Milán para un chequeo a su GP porque sentía náuseas todo el tiempo y una extraña presión en el lado izquierdo de su cabeza. El médico le sugirió que hiciera un par de pruebas y le informó sobre la implicación de un algoritmo de diagnóstico en el procedimiento. El algoritmo de aprendizaje de la máquina fue entrenado para identificar tumores cerebrales -uno de los primeros estudios en el área data de marzo de 2018- con muy alta precisión. En la mayoría de los casos, diagnosticó tejidos cancerosos mucho mejor que algunos histopatólogos capacitados, pero en el caso de Andrea, algo se descarrió.

El algoritmo encontró algo diferente que el diagnosticador, y como el uso de I.A. ya era una práctica común, el histopatólogo no cuestionó el juicio. Como resultado, Andrea fue maltratada: una operación innecesaria, curas de medicación ineficaces y pasaron largas semanas hasta que alguien descubrió el error algorítmico. Sin embargo, el cerebro del paciente ya sufrió daños irreversibles, y la familia quiere demandar.

¿Y si un robot de extracción de sangre causara una lesión?

En el decenio de 2030, la popularidad de los robots hematófagos se disparó porque eran rápidos, eficientes y podían encontrar la vena apropiada generalmente en menos tiempo que las enfermeras o los flebotomistas. Ganaron reconocimiento también porque las pruebas de sangre de una sola gota eran todavía raras ya que su avance se detuvo debido a la infame historia de Theranos.

Una mañana, Greg fue al hospital local porque necesitaba un análisis de sangre para comprobar una infección. Ya tenía alguna experiencia con robots de extracción de sangre, por lo que era consciente de que el procedimiento dura menos de un minuto, y es mínimamente doloroso. Cuando Greg se sentó y la enfermera encendió el sistema, el brazo robótico encontró la vena y tomó la sangre. Sin embargo, después, ya no respondió a ninguna orden dejando la aguja en el brazo de Greg durante largos minutos. Estaba conmocionado. Después de que el personal se las arregló para quitarlo, su herida del brazo tuvo que ser vendada. Decidió contratar a un abogado de negligencia médica. ¿Pero a quién demandar?

¿Cómo decidir quién es responsable?

En estos dos casos hipotéticos, las tecnologías médicas actuaron de forma autónoma y terminaron por herir o lesionar al paciente. No hace falta decir que aquí tenemos un razonamiento altamente teórico, sin conocer los detalles que refinan cada caso hasta el punto de que hay un paciente particular con una condición particular en un día particular en un lugar particular.

Sin embargo, manteniéndose en el nivel teórico, David Harlow, un abogado, consultor y bloguero estadounidense especializado en salud digital, cree que sigue valiendo la pena dividir los casos en categorías clave de preocupación: defectos de diseño, defectos de implementación y errores de usuario. Así pues, cuando observamos el encuentro de la tecnología con el médico y el paciente, según el caso, puede haber un defecto de diseño, en cuyo caso la empresa puede ser responsable, un defecto de aplicación, en cuyo caso el médico o la enfermera pueden ser responsables, y un error de usuario, que puede recaer en el paciente.

¿Y si el robot tiene un defecto de diseño?

Aquí, estamos asumiendo que no hubo ningún error de usuario, el paciente no pudo haber hecho nada diferente, por lo que nuestros casos podrían reducirse a defectos de diseño o de implementación.

En primer lugar, vale la pena examinar las diferencias en las tecnologías al examinar los casos hipotéticos. En el caso de las tecnologías analógicas -la primera capa de tecnologías o las tecnologías tradicionales- que proporcionan datos o permiten a los usuarios acceder a los datos sin ningún algoritmo (por ejemplo, el estetoscopio); cuando un defecto de diseño causa daño a los pacientes, "el primer paso en el camino para poder responsabilizar a la empresa, suele ser un viaje a la FDA, buscando una retirada del dispositivo médico por incumplimiento de la aprobación de la FDA", dice Harlow.

En el caso de las tecnologías digitales, que constituyen la segunda capa de las tecnologías cuando se examina el nivel de avance; que tienen algoritmos programados en ellas sin que el código cambie por sí mismo (por ejemplo, los programas informáticos de registros médicos), la situación podría ser similar. Como según Harlow podrían considerarse una "caja negra", es decir, un sistema que recoge algunas entradas y da una salida, sin que el clínico que lea la salida se familiarice con el algoritmo que realiza el análisis, se regula como un dispositivo médico, el procedimiento podría ser similar al de la tecnología analógica.

Así pues, en lo que respecta a la responsabilidad por un diagnóstico erróneo o por otros daños causados por la tecnología, como un robot de extracción de sangre, es instructivo considerar la forma en que el derecho contractual y el derecho de responsabilidad civil han tratado la posibilidad y la actualidad de las demandas por mala praxis basadas en el uso de sistemas de registros sanitarios electrónicos en parte o en su totalidad, explica Harlow.

¿Dónde está el lugar del algoritmo inteligente?

La tercera categoría de tecnologías podría ser la más interesante y la más problemática de regular y tratar: los algoritmos de aprendizaje profundo o de aprendizaje automático para el diagnóstico en radiología y patología. Estas construcciones podrían cambiar con el tiempo.

Aquí, Harlow se pregunta cómo sabemos si el algoritmo está progresando en la dirección "correcta". Dice que, en estas circunstancias, hay al menos dos cuerpos de pensamiento que se cruzan y que deberían afectar a la toma de decisiones del médico al utilizar la I.A.: la aprobación reguladora y el estándar de atención. En el primer caso, suponiendo que la FDA (o análogo) pueda aprobar una herramienta de aprendizaje de la máquina que cambiará con el tiempo. Sin la aprobación reglamentaria de un dispositivo, éste no podrá utilizarse en la práctica clínica. En el segundo caso, el dispositivo debe ser permitido o requerido por el consenso profesional actual sobre el ejercicio de la medicina para ser considerado dentro de los límites de la práctica (es decir, no se trata de mala praxis en su uso).

Así pues, la práctica jurídica podría tratar de crear una "caja negra" a partir de los algoritmos de aprendizaje de la máquina, pero también podría ser más problemática aquí que en el caso de otras tecnologías digitales, de modo que la responsabilidad podría recaer en la empresa que crea el algoritmo.

¿Tiene el diagnosticador o el flebotomista alguna responsabilidad?

Cuando no hay un defecto de diseño probado en el caso, tenemos que examinar si el patólogo o flebotomista o cualquier otro médico utilizó el dispositivo como se suponía que debía ser utilizado. Harlow dice que en ambos casos, el profesional está abierto a la responsabilidad si utilizó la herramienta en una situación fuera del ámbito de su aprobación reglamentaria, o la usó indebidamente, o la aplicó a pesar de un importante cuestionamiento profesional de la validez de las pruebas que rodean a la herramienta, o con el conocimiento del fabricante de la herramienta ofuscando hechos negativos. En cualquier otro caso, la pelota recae sobre los creadores y las empresas.

¿Qué pasa si los robots con I.A. obtienen "personalidad"?

Sin embargo, ¿qué hacer con las criaturas parecidas a Sofía que ya tienen la ciudadanía en Arabia Saudita? ¿Qué hacer con los algoritmos de aprendizaje automático totalmente autónomos que toman decisiones basadas en su juicio como resultado de consideraciones que podrían estar fuera de la percepción humana?

La Unión Europea parece experimentar con un nuevo estatuto jurídico para el futuro. Un informe del Parlamento Europeo de principios de 2017 sugiere que a los robots de autoaprendizaje se les podría otorgar "personalidades electrónicas". Tal estatus no significa que puedan adoptar niños o casarse con humanos u otros robots. Puede que sólo permita que los robots estén asegurados individualmente y que se les considere responsables de los daños si se rebelan y empiezan a hacer daño a las personas o a la propiedad. ¿Y cómo recibirían las partes agraviadas alguna compensación? Existe la idea, por ejemplo, de establecer un plan de seguro obligatorio que podría ser alimentado por la riqueza que un robot está acumulando durante su "existencia".

Aunque los expertos e investigadores de la I.A. critican el informe por permitir a los fabricantes eludir sus responsabilidades, la idea podría ser una solución creativa para una zona gris cada vez más amplia en la legislación sobre la negligencia médica. En el futuro próximo se necesitarán otras nociones y principios jurídicos igualmente orientados hacia el futuro, ya que, como estimó Harlow, los primeros escenarios con inteligencia artificial estrecha o robots médicos podrían llegar ya dentro de un año a los bufetes de abogados especializados en negligencia médica. Reguladores de la salud, agencias y abogados... ¡Es hora de mirar hacia adelante!