Salud
Advierten uso ChatGPT en la medicina
Por Gilberto Objio Subero, abogado experto en Responsabilidad Civil y en Derecho Médico.
¿Quién es responsable si un paciente sufre daños debido a un error diagnóstico o de tratamiento basado en información errónea proporcionada por una IA? Estas situaciones podrían generar demandas de negligencia médica y complicar la atribución de responsabilidad entre el paciente, el profesional médico y el desarrollador de la IA. Introducción La inteligencia artificial (IA) ha avanzado rápidamente en los últimos años, y aplicaciones como ChatGPT han demostrado ser útiles en una amplia gama de campos, incluyendo la medicina. A pesar de las advertencias sobre los riesgos potenciales de la IA y los errores convincentes que puede generar, algunas personas han ignorado estas preocupaciones y han utilizado estas herramientas de manera irresponsable. En este artículo, exploraremos los peligros asociados con el uso indebido de ChatGPT y otras IA en la medicina, examinando casos de uso como errores diagnósticos y mal uso de la herramienta. Errores diagnósticos y el papel de la IA. Uno de los principales riesgos asociados con el uso irresponsable de la IA en la medicina es la posibilidad de errores diagnósticos. Aunque herramientas como ChatGPT pueden proporcionar información útil basada en su amplio conocimiento, no están diseñadas para reemplazar el juicio clínico y la experiencia de los profesionales médicos. Estas herramientas de IA no pueden considerar todos los factores relevantes y matices específicos de un caso individual, lo que aumenta el riesgo de errores diagnósticos si se confía únicamente en su información. Por ejemplo, un paciente que busca orientación médica en línea podría obtener un diagnóstico erróneo de ChatGPT u otra IA, que no tiene acceso a su historial médico completo y no puede realizar un examen físico. Esto podría llevar a un tratamiento inadecuado, retrasos en el diagnóstico correcto y posibles complicaciones de salud. Errores en el uso de la herramienta. Otro peligro relacionado con el uso indebido de la IA en la medicina es el riesgo de errores en el uso de la herramienta por parte de los usuarios. Aunque ChatGPT y otras IA pueden ser fáciles de usar, los usuarios podrían no comprender completamente sus limitaciones o malinterpretar la información proporcionada. Un ejemplo de esto podría ser un paciente que busca información sobre la dosificación de un medicamento. Si el paciente no proporciona información suficiente o detallada a la IA, como su edad, peso, historial médico y otros factores relevantes, la IA podría generar una respuesta inexacta o incluso peligrosa. Esto podría resultar en una sobredosis, una interacción medicamentosa no deseada o efectos secundarios graves. Además, los profesionales de la salud también pueden correr riesgos al depender demasiado de la IA. Si un médico confía en la información proporcionada por ChatGPT sin verificarla con sus conocimientos y experiencia clínica, podría cometer errores en el diagnóstico, el tratamiento o la atención al paciente. Responsabilidad legal y ética El uso indebido de la IA en la medicina también plantea preguntas legales y éticas. ¿Quién es responsable si un paciente sufre daños debido a un error diagnóstico o de tratamiento basado en información errónea proporcionada por una IA? Estas situaciones podrían generar demandas de negligencia médica y complicar la atribución de responsabilidad entre el paciente, el profesional médico y el desarrollador de la IA Gilberto Objío Subero @objiog En virtud de la complejidad intrínseca que suscita la atribución de responsabilidad en casos de menoscabo sufrido por pacientes a consecuencia de un diagnóstico o tratamiento erróneo fundamentado en información inexacta proporcionada por un sistema de inteligencia artificial, cabe dilucidar que la responsabilidad podría recaer en diversas partes involucradas en el proceso médico. Tal responsabilidad podría imputarse, inter alia, al facultativo sanitario, quien ostenta la obligación de llevar a cabo decisiones informadas y basadas en la evidencia al momento de diagnosticar y tratar a los pacientes; a los desarrolladores y proveedores de sistemas de inteligencia artificial, cuya labor podría verse comprometida por errores de programación, falta de actualización de las bases de datos o un entrenamiento inadecuado de la IA; a las instituciones y centros hospitalarios, en virtud de no haber llevado a cabo una evaluación exhaustiva de la tecnología previa a su implementación o no haber proporcionado la capacitación y el soporte requeridos para la utilización eficaz y segura de la IA por parte de los profesionales de la salud; e incluso al propio paciente, en caso de haber proporcionado información imprecisa o incompleta respecto a su historial médico o síntomas, lo cual podría haber derivado en un diagnóstico o tratamiento inadecuado basado en la información suministrada a la IA. Por consiguiente, es menester recalcar que las normativas y regulaciones concernientes a la responsabilidad en el uso de la inteligencia artificial en el ámbito sanitario divergen entre países y jurisdicciones. A medida que la tecnología de la IA prosiga su avance y su adopción en el ámbito médico se consolide, es de prever que las leyes y regulaciones se adecuarán y evolucionarán con el propósito de abordar las cuestiones éticas y legales que emergen en relación con la atribución de responsabilidad. En síntesis, la responsabilidad en casos de perjuicios a pacientes derivados de errores diagnósticos o terapéuticos fundamentados en información incorrecta proporcionada por una IA podría ser compartida entre médicos, desarrolladores y proveedores de IA, instituciones y centros hospitalarios, e incluso pacientes. La determinación de la responsabilidad específica en cada caso dependerá de las circunstancias particulares y de las disposiciones legales aplicables en cada jurisdicción En resumen, el uso irresponsable de ChatGPT y otras IA en la medicina puede tener consecuencias graves y potencialmente peligrosas. Para mitigar estos riesgos, es fundamental que tanto los pacientes como los profesionales médicos estén conscientes de las limitaciones de estas herramientas y utilicen la información proporcionada con precaución y discernimiento. La IA tiene el potencial de revolucionar la medicina y mejorar la atención médica en todo el mundo, pero es fundamental recordar que no debe reemplazar el juicio clínico y la experiencia de los profesionales médicos. Para garantizar que se utilicen de manera segura y efectiva, los usuarios deben seguir las recomendaciones y advertencias proporcionadas por los desarrolladores de IA y siempre consultar con profesionales médicos antes de tomar decisiones importantes sobre su salud. De esta manera, podemos aprovechar el potencial de estas innovadoras tecnologías sin poner en riesgo la seguridad y el bienestar de los pacientes.
TEMAS RELACIONADOS:
TE PODRÍA INTERESAR
Advertisement
Provinciales12 horas
Senador Johnnson Encarnación realiza visita de seguimiento a la construcción de una casa en favor de una familia de escasos recursos
Variedades12 horas
Bismarck Morales lanza su candidatura a la presidencia del Círculo de Locutores Dominicanos
Portada13 horas
Presidente Abinader recibe Honoris Causa de la Universidad ISA por su liderazgo visionario e impulso de iniciativas en favor de la educacion y sector productivo del país
Nacionales14 horas
Propeep desarrolla amplia agenda de acciones sociales en Puerto Plata
Internacionales17 horas
Ucrania lanza misiles al puerto Berdiansk y provoca incendio
Estado del Tiempo19 horas
Las lluvias se extenderán las próximas 48 a 72 horas
Arte y Cultura3 años
Arroz, habichuelas y carne: cómo se convirtió la ‘bandera’ en el plato nuestro de cada día
Variedades3 años
Ampliarán estación de transferencia del Metro de Santo Domingo
Economía3 años
RD lidera exportación de banano orgánico
Variedades3 años
Betty Gerónimo: ‘He tenido problemas en mi matrimonio, por amor lo he perdonado’
Nacionales2 años
IAD participa en seminario de Promoción a la Agricultura de Pequeña Escala orientada al Mercado
Variedades3 años