top of page

INTELIGENCIA ARTIFICIAL. UNA MIRADA DESDE LA BIOÉTICA

  • elenapasso
  • 9 jul
  • 9 Min. de lectura

Actualizado: 14 jul


Mgter. Dra. Raquel Bolton

Médica Bioeticista




1RAS. JORNADAS INTERNACIONALES

COMITÉ DE BIOCIBERETICA

ASOCIACIÓN MÉDICA ARGENTINA           

11 DE JUNIO 2025

 


El Equipo de Salud debe ser competente desde lo ético y antropológico y demostrar asimismo su competencia desde los adelantos científicos/ tecnológicos, con un nivel adecuado de capacitación que le permita estar actualizado en las áreas de su disciplina.

Es de rigor ético mantener vigentes los Códigos que comenzaron en la ciudad de Nüremberg donde funcionó el Tribunal Internacional para juzgar a un grupo de médicos, acusados de someter a prisioneros a experimentos reñidos con los derechoshumanos, la ética y la moral. 

La dignidad revelada en los Códigos Internacionales de Ética, imponen que no se reduzca a los individuos sólo a sus características genéticas, sino en un respeto a su carácter único estableciendo pautas comunes para abordar las nuevas situaciones de intervención, considerando el progreso de las ciencias biomédicas y de las nuevas tecnologías disponibles en un marco de integridad científica. 

La Declaración de Helsinki y sus posteriores revisiones han sentado las bases de los principios éticos para la investigación médica; la revisión de la 75ª Asamblea General, Helsinki, en octubre 2024, también aborda el creciente papel de la inteligencia artificial (IA) en la atención médica y la investigación, así como la importancia de proteger los datos de los participantes.

Sin embargo, los procedimientos y campos de investigación actuales, junto al avance de las tecnologías, hacen necesario ampliar estas bases éticas con consideraciones acerca de la protección de datos y material biológico, con vistas a salvaguardar la dignidad, autonomía, confidencialidad y privacidad de los donantes. 

“En la investigación médica, es deber del médico proteger la vida, la salud, la dignidad, la integridad, autonomía, la privacidad y la confidencialidad de la información personal de los participantes de la investigación.  La responsabilidad de la protección de las personas que participan en la investigación debe recaer siempre en un médico u otro investigador y nunca en los participantes de la investigación, aunque hayan otorgado su consentimiento”.

Es este ámbito donde la Inteligencia Artificial puede ser útil como ayuda para situaciones complejas, optimizando sistemas de alerta temprana para emergencias de salud pública, predicción de tendencias y automatización de procesos complejos, diseño de estructuras tridimensionales, estudios de prevención y vigilancia epidemiológica, todas consideraciones a tener en cuenta al momento de identificar los sistemas de reconocimiento de patrones con mayor precisión y eficiencia que los métodos tradicionales.

Es imperativo que esta información procesada no sea manipulada ni difundida, para una mejor defensa de la protección de los derechos que permiten controlar el uso de la información personal y el material biológico.

No obstante, es necesario señalar que una Inteligencia Artificial convertida en tecnocracia, viola el principio bioético de autonomía en su proceso de discernimiento y decisión, con algoritmos que desestiman derechos de confiabilidad, privacidad y discriminación de datos personales.

Con la intención de crear un instrumento normativo   internacional   sobre   la   ética   de   la   Inteligencia   Artificial (IA), la Conferencia General de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO), reunida en París en 2021, preparó en forma de recomendaciones, los valores que desempeñan una importante función como ideales  que  motivan  la  orientación  de  las  medidas  de  política y las normas jurídicas que junto a  Principios  Éticos colaboran para aplicación de medidas de política y  normas  jurídicas  basadas  en  los  derechos y orientadas al rápido desarrollo tecnológico.

Los valores que figuran a continuación, deberían ser respetados por todos los actores durante el ciclo de vida de los sistemas de IA, como protección de la libertad humana, su dignidad y la diversidad cultural en todas las etapas del ciclo de vida de los sistemas de IA:

-Respeto, protección y promoción de los derechos humanos, las libertades fundamentales y la dignidad humana.

-Prosperidad del medio ambiente y los ecosistemas.

-Garantizar la diversidad y la inclusión.

-Vivir en sociedades pacíficas, justas e interconectadas.

Asimismo, la elaboración de normas éticas aceptadas, relacionadas con la IA, pueden desempeñar una función esencial en la evaluación de riesgos, siendo los Principios aquellos destinados para garantizar   la aplicación de procedimientos: 

-Proporcionalidad e inocuidad.

-Seguridad y protección.

-Equidad y no discriminación.

-Sostenibilidad.

-Derecho a la intimidad y protección de datos.

-Transparencia y aplicabilidad.

-Supervisión y decisión humanas.

-Sensibilización y educación.

-Responsabilidad y rendición de cuentas.

-gobernanza y colaboración adaptativas y de múltiples partes interesadas.

La Declaración de Montreal para un Desarrollo Responsable de la Inteligencia Artificial de 2018, crea un marco ético para el desarrollo y la implementación de la IA, guiando la transición digital para que todos puedan beneficiarse de esta revolución tecnológica y abriendo un foro de discusión nacional e internacional a fin de lograr conjuntamente un desarrollo equitativo, inclusivo y ecológicamente sostenible de la IA. 

Respeto a la Autonomía.

Los Sistemas de Inteligencia Artificial (SIA) deben permitir que los individuos alcancen sus objetivos morales y tengan una vida que consideren que vale la pena vivir. 

No se deben desarrollar ni utilizar los SIA para imponer un estilo de vida específico a las personas, ya sea de forma directa o indirecta, mediante la implementación de mecanismos opresivos de vigilancia y evaluación o de incentivos.

El Principio de Beneficencia protege y defiende los derechos de las personas, señalando medidas preventivas para evitar cualquier tipo de daño que pueda ocurrir a otros.

Al respecto la mencionada Declaración señala:

1.​Los SIA deben contribuir a que las personas mejoren sus condiciones de vida, su salud y sus condiciones laborales.

2.​Deben permitir que las personas vayan tras sus deseos, siempre y cuando no causen daño a otros seres conscientes. 

3.​Deben permitir que las personas pongan en práctica sus capacidades mentales y físicas. 

4.​No deben generar malestar, a menos que nos permitan alcanzar un bienestar superior que no se podría lograr de otra manera. 

5.​El uso de los SIA no debe contribuir a un aumento del estrés o la ansiedad, ni debe generar la sensación de que el entorno digital nos acosa.

Principio de Protección de la Privacidad y la Intimidad.

Se debe proteger estrictamente la intimidad de los pensamientos y las emociones contra los usos de Sistemas de Inteligencia Artificial (SIA) y Sistemas de Adquisición y Archivo de Datos (SAAD) que puedan ocasionar daños, en especial aquellos usos que imponen juicios morales sobre las personas o sus elecciones de vida. 

Las personas siempre deben tener derecho a desconectarse del ámbito digital en sus vidas privadas, y los SIA deben ofrecer explícitamente la opción para desconectarse periódicamente y no deben alentar a las personas a que sigan conectadas.   

Principio de Solidaridad.

No se deben implementar los SIA para remplazar a las personas en tareas que requieren relaciones humanas de calidad, sino que se los debe desarrollar para facilitar dichas relaciones. 

En los sistemas de salud donde se utilizan los SIA, se debe tener en cuenta la importancia de las relaciones del paciente con su familia y el personal sanitario. 

El desarrollo de los SIA no debe fomentar un comportamiento cruel hacia los robots que fueron diseñados para parecerse   humanos o animales y actuar como ellos.  

Principio de Participación Democrática.

Las autoridades públicas y las partes interesadas relevantes siempre deben poder acceder al código de los algoritmos, ya sean públicos o privados, a efectos de verificación y control. 

Al descubrir SIA con errores, efectos inesperados o no deseables, vulneraciones de seguridad y pérdidas de datos, se los debe informar imperiosamente a las autoridades públicas y las partes interesadas pertinentes, y a aquellos que se ven afectados por la situación.    

De acuerdo con el requisito de transparencia para las decisiones públicas, todos deben poder acceder al código de los algoritmos que utilizan las autoridades públicas para la toma de decisiones, a excepción de los algoritmos que puedan plantear un gran riesgo de peligro si se los utiliza indebidamente.

Principio de Equidad.

El desarrollo de los SIA nos debe beneficiar a todos en el ámbito social y económico al reducir las desigualdades y las vulnerabilidades. 

El desarrollo de los SIA en el ámbito industrial debe ser compatible con condiciones laborales aceptables en cada etapa de su ciclo de vida, desde la extracción de recursos naturales hasta el reciclaje, lo que incluye el procesamiento de datos.

Principio de Inclusión de la Diversidad.

A partir del momento en que se conciben los algoritmos, el desarrollo y la implementación de los SIA deben tener en cuenta la gran cantidad de expresiones de diversidad social y cultural que se encuentran presentes en la sociedad.

Los entornos de desarrollo de la IA, ya sea en el ámbito de la industria o la investigación, deben ser inclusivos y dar cuenta de la diversidad de las personas y los grupos de la sociedad.

Principio de Prudencia.

Antes de lanzarlos al mercado, sin importar si son gratuitos o pagos, los SIA deben cumplir requisitos rigurosos de fiabilidad, seguridad e integridad, y se los debe someter a pruebas que no pongan en peligro la vida de las personas, perjudiquen su calidad de vida o afecten de forma negativa su reputación o integridad psicológica. Estas pruebas deben estar abiertas a las autoridades públicas y las partes implicadas pertinentes. 

El desarrollo de los SIA debe prevenir los riesgos del uso indebido de los datos de los usuarios y proteger la integridad y la confidencialidad de los datos personales.

Principio de Responsabilidad.

Solo se puede responsabilizar a los seres humanos por las decisiones que surjan de las recomendaciones de los SIA y las acciones que resulten de ello. 

En los ámbitos en que se deben tomar decisiones que afectan la vida, la calidad de vida o la reputación de una persona, siempre que el tiempo y las circunstancias lo permitan, un ser humano debe tomar la decisión final y esta decisión debe ser libre e informada. 

Las personas que autorizan a un SIA a cometer un crimen o delito, o demuestran negligencia al permitir que un SIA los cometa, son responsables de este crimen o delito.  

Principio de Desarrollo Sostenible.

El hardware de los SIA, su infraestructura digital y los objetos relevantes en los que estos se basan, como los centros de datos, deben intentar alcanzar la mayor eficiencia energética posible y mitigar las emisiones de gas invernadero a lo largo de todo su ciclo de vida.

Centrarse en la verdad objetiva, significa entender a la persona humana en su dimensión integral, para el cuidado de un uso proporcionado del proceder técnico-científico que humanice el êthos profesional, pero es necesario que desde un ámbito académico en la formación pre y post grado acompañe al equipo de salud, una bioética dialogante y pluralista fundamentada en valores y principios. 

Surge también la necesidad de una formación profesional competente y coherente, pararesponder al desafío que presenta el uso de la Inteligencia Artificial en el ámbito sanitario, especialmente en la aplicación en estudios epidemiológicos, uso racional de recursos, construcción de bases de datos, telediagnósticos digitales y entre otros desafíos posibles, los riesgos de discriminación en el uso de algoritmos.

Tratados y Documentos Internacionales, muestran celeridad en la promoción del sentido de responsabilidad compartida, con la intención de beneficiarse de los avances de la tecnología, “Llamamiento de Roma por la Ética de la IA” (Rome Call for AI Ethics) es un documento concebido y promovido por la Academia Pontificia para la Vida, y posteriormente por la Fundación RenAIssance, creada por el Papa Francisco en 2021 específicamente para su difusión, que aboga por un enfoque ético de la inteligencia artificial. 

Al invertir en un nuevo algoritmo, los firmantes se comprometieron a respetar los principios de transparencia, inclusión, responsabilidad, imparcialidad, fiabilidad, seguridad y privacidad.

Los temas principales del documento "The Rome Call for AI Ethics" son:

-Ética en la inteligencia artificial: Promover el desarrollo de sistemas de IA que respeten la dignidad humana, no discriminen y beneficien a toda la humanidad, priorizando el bienestar humano y ambiental sobre el lucro o la sustitución de personas en el trabajo.

-Educación: Garantizar el acceso universal a la educación, incluyendo a jóvenes, personas mayores y personas con discapacidades, mediante el uso de IA para fomentar la inclusión social y la igualdad de oportunidades.

-Derechos humanos: Proteger los derechos humanos en la era digital, promoviendo la transparencia, trazabilidad y responsabilidad en los sistemas de IA, así como regulaciones éticas para tecnologías avanzadas como el reconocimiento facial.

-Principios éticos para la IA: Establecer principios fundamentales como transparencia, inclusión, responsabilidad, imparcialidad, fiabilidad, seguridad y privacidad en el diseño y uso de sistemas de IA.

-Sostenibilidad: Utilizar la IA para proteger el planeta y garantizar sistemas alimentarios sostenibles, promoviendo un enfoque ético y responsable hacia el medio ambiente.

-Colaboración global: Fomentar la cooperación entre gobiernos, organizaciones internacionales, instituciones y empresas tecnológicas para desarrollar una visión compartida y soluciones éticas en el ámbito de la IA

Estos temas reflejan un compromiso con el desarrollo de la IA centrado en el bienestar humano, la justicia social y la sostenibilidad ambiental.

El Consejo de Europa ha adoptado el primer tratado internacional jurídicamente vinculante destinado a garantizar el respeto de los derechos humanos, del Estado de derecho y las normas jurídicas democráticas en el uso de los sistemas de inteligencia artificial (IA). 

El tratado, que también está abierto a países no europeos, establece un marco jurídico que abarca todo el ciclo de vida de los sistemas de IA y se ocupa de los riesgos que pueden plantear, a la vez que promueve la innovación responsable. 

El convenio adopta un enfoque basado en el riesgo para diseñar, desarrollar, usar y decomisar sistemas de IA, que exige considerar cuidadosamente cualquier posible consecuencia negativa del uso de sistemas de IA. [Estrasburgo, 17 de mayo de 2024]

Un cuidado especial y seguimiento obligatorio del equipo de salud, permitirá que haya procesos formales de control y revisión por seres humanos de las decisiones automatizadas.

“… reflexión sobre los efectos de la inteligencia artificial en el futuro de la humanidad nos lleva así a la consideración de la importancia de la “sana política” para mirar con esperanza y confianza nuestro futuro. Como he dicho en otra ocasión, «la sociedad mundial tiene serias fallas estructurales que no se resuelven con parches o soluciones rápidas meramente ocasionales. Hay cosas que deben ser cambiadas con replanteos de fondo y transformaciones importantes. Sólo una sana política podría liderarlo, convocando a los más diversos sectores y a los saberes más variados. De esa manera, una economía integrada en un proyecto político, social, cultural y popular que busque el bien común puede “abrir camino a oportunidades diferentes, que no implican detener la creatividad humana y su sueño de progreso, sino orientar esa energía con cauces nuevos” ( Laudato si’, 191)» 

Este es precisamente el caso de la inteligencia artificial. 

Corresponde a cada uno hacer un buen uso de ella, y corresponde a la política crear las condiciones para que ese buen uso sea posible y fructífero.” [Papa Francisco. Sesión cumbre del G7 14de junio de 2024]

 

La Inteligencia Artificial tiene como objetivo mejorar la atención en salud con herramientas digitales, pero es necesario señalar que en toda relación médico-paciente es el profesional de la salud, quién debe demostrar competencia en el acto médico,respetando la dignidad humana sin discriminación, es él quien asiste y “sabe” acerca del proceso que está atravesando su paciente, siendo su opinión importante al implementar los cuidados.

Un uso responsable de herramientas digitales pueden ser consideradas a tener en cuenta, para el cuidado integral de los pacientes y una mayor eficacia en el seguimiento de los mismos.

 

 

ree

 

En la fotografía de izquierda a derecha: Dra. Raquel Bolton, Dr. Mario Bruno y Dra. Andrea Actis.  

 
 
 
Ponte en contacto

¡Gracias por tu mensaje!

Nuestras redes

  • Blanca Facebook Icono
  • Blanco Icono de YouTube
bottom of page