✍¿IA Y ÉTICA CIENTÍFICA SON COMPATIBLES? | DOCENTES 2.0

La cuestión de si la inteligencia artificial (IA) es compatible con la ética científica es relevante para todo el campo y se ha convertido en el centro del debate académico en los últimos años. Por un lado, la IA como agente no humano presenta muchos dilemas que desafían cualquier marco tradicional de responsabilidad y moralidad. Floridi et al. (2018) sugiere que la ética de la IA no debería radicar en el diseño y los algoritmos responsables; debería radicarse en las consecuencias sociales de la IA.

Por otro lado, la automatización por la IA de procesos investigativos no exime a los científicos de sus deberes éticos. Mittelstadt et al. (2016) dice que la toma de decisiones algorítmica requiere ser supervisada por humanos con urgencia porque un algoritmo corruptible y no concienzudo puede conducir a la parcialidad, la discriminación y las incapacidades, todas consecuencias de los principios científicos.

Del mismo modo, la IA en la ciencia requiere nuevas formas de transparencia. Lipton (2018) plantea el concepto de interpretabilidad como parte de los requisitos éticos ya que un modelo opaco no es científicamente replicable. Interpretar y explicar son condiciones suficientes para preservar la integridad de las investigaciones. Binns (2018) advierte que los marcos éticos pueden ser abusados por los intereses corporativos y burocráticos. Sin embargo, los marcos éticos de la IA no pueden ser solo declaraciones; debe ser vivido y comprometido in situ. La ética de la IA debe ser aplicada. Por ejemplo, si la IA se utiliza como un método de diagnóstico en la medicina, se debe garantizar el rechazo informado y el anonimato para el asesoramiento ético.

El autor Gerke et al. (2020) asegura que la IA y la investigación médica son compatibles con la buena gobernanza robusta y multidisciplinaria. Además, la IA renueva la ética de la ciencia al incorporar principios sobre justicia algorítmica, justicia en el acceso a tecnologías y la corresponsabilidad en el desarrollo de conocimiento. Dignum (2019) propone la ética del diseño desde los valores humanos.

En síntesis, la compatibilidad entre IA y ciencia no es automática y debe basarse en la normativa, la ética y la educación. Más de ochenta documentos internacionales tienen como objetivo crear un principio ético común aplicado en el desarrollo de IA. Solo una ciencia consciente puede juntarse. La clave para combinar el conocimiento técnico con la humanidad y guiar el conocimiento en singular es la conciencia.

Referencias

Binns, R. (2018). Fairness in machine learning: Lessons from political philosophy. Proceedings of the 2018 Conference on Fairness, Accountability and Transparency.

Dignum, V. (2019). Responsible Artificial Intelligence: How to develop and use AI in a responsible way. Springer.

Floridi, L., Cowls, J., Beltrametti, M., et al. (2018). AI4People—An ethical framework for a good AI society.

Gerke, S., Minssen, T., & Cohen, I. G. (2020). Ethical and legal challenges of artificial intelligence-driven healthcare. Nature Machine Intelligence.

Lipton, Z. C. (2018). The mythos of model interpretability. Communications of the ACM.

Mittelstadt, B. D., Allo, P., Taddeo, M., Wachter, S., & Floridi, L. (2016). The ethics of algorithms: Mapping the debate. Big Data & Society.

 

 


Ruth Mujica

Ruth M. Mujica-Sequera

Autor del Blog Docentes 2.0: Dra. Ruth Mujica-Sequera, es venezolana y está residenciada en el Medio Oriente desde el año 2011. Fundadora y CEO de Docentes 2.0 y la Revista Tecnológica-Educativa Docentes 2.0. Ingeniero de Sistema con Doctorado en Tecnología Educativa y Posdoctorado en Ciencias. La Dra. Ruth Mujica-Sequera es la Embajadora Latinoamericana de la Tecnología Educativa - Embajadora Nacional de Venezuela reconocida por ReviewerCredits