3 principios éticos claves para la implementación de la inteligencia artificial

Inteligencia Artificial
Innovación
Ética
Autor/a

Alcides Chaux

Fecha de publicación

21 de enero de 2024


Es indudable que la inteligencia artificial (IA) está teniendo un impacto cada vez mayor en nuestras vidas.

Desde asistentes virtuales hasta vehículos autónomos, la IA está remodelando la sociedad de formas que eran inimaginables hace apenas unos años. En mi campo de investigación y especialidad, el uso de la IA para el diagnóstico y clasificación de tumores se extiende cada vez más.

Son tiempos de mucho entusiasmo y expectativas. La IA tiene el potencial de transformar no solo la forma en la que hacemos ciencia, sino nuestra visión misma de la realidad. Sin embargo, a medida que esta tecnología se vuelve más sofisticada y omnipresente, surgen preguntas éticas urgentes sobre cómo debemos diseñar, implementar y regular los sistemas de IA.

Filosofías y movimientos sociales como el altruismo efectivo han expresado su preocupación sobre el impacto de la IA en el futuro de la humanidad, especialmente el riesgo de que surja una IA superinteligente que pueda causar daños irreversibles o incluso la extinción de nuestra especie. Personalmente, no es una de mis corrientes filosóficas favoritas, pero indudablemente sus argumentos tienen mérito.

Este es un tema que he debatido también extensamente con colegas. Y llegar a puntos de acuerdo puede ser complicado, sobre todo cuando se parten de posiciones filosóficas y antropológicas divergentes. A pesar de lo complicada y polarizada que puede llegar a ser este tipo de discusiones, son conversaciones que debemos tener.

Mi posición con respecto a la inteligencia artificial es clara — no creo que presente un riesgo existencial significativo. Encuentro esos escenarios apocalípticos y distópicos en los que la AI toma el control y destruye a la humanidad, simplemente absurdos. Pero esto es tema para otra entrada.

Volviendo al tópico a mano, recientemente, he tomado en DataCamp un excelente curso sobre IA y ética de Joe Franklin, quien ha propuesto 3 principios éticos clave a tener en cuenta: equidad, responsabilidad y transparencia. En esta entrada, te contaré acerca de estos principios y el porqué creo que adoptarlos será esencial para garantizar que maximizamos los beneficios de la IA, mientras minimizamos los daños potenciales.

Equidad

El principio de equidad establece que los sistemas de IA deben beneficiar a todas las personas por igual, sin discriminar o favorecer ciertos grupos sobre otros. La IA tiene el potencial de exacerbar las desigualdades sociales si sesga los resultados en contra de grupos desfavorecidos. Esto tiene mucho que ver con la forma en la que se entrenan los algoritmos de IA.

Por ejemplo, existe evidencia de que los algoritmos utilizados en contratación y préstamos discriminan contra solicitantes de minorías, incluso cuando afirman ser objetivos. Esto no es algo que inherentemente esté «mal» en la IA — son sesgos que ha aprendido debido a que nosotros mismos, como humanos y como sociedad, tenemos estos sesgos.

Si no se abordan estos sesgos, la IA podría negar oportunidades vitales a millones de personas. Para cumplir con el principio de equidad, los sistemas de IA deben diseñarse intencionalmente para promover la inclusión. Los conjuntos de datos utilizados para entrenarlos también deben ser representativos de diversas poblaciones.

Debemos, por lo tanto, asumir y reconocer los sesgos que nosotros mismos tenemos, y buscar formas efectivas de minimizarlos al implementar soluciones y estrategias de IA.

Solo entonces la IA podrá beneficiar a toda la humanidad. Cuando nosotros como humanos asumamos también nuestra humanidad en común.

Responsabilidad

El principio de responsabilidad establece que debe haber supervisión y control humano significativo sobre los sistemas de IA. También debe haber mecanismos para determinar quién es responsable cuando las cosas van mal con la IA.

Por ejemplo, si un vehículo autónomo tiene un accidente fatal, ¿es la empresa fabricante la responsable y, por tanto, plausible de ser demandada? Del mismo modo, un médico debe supervisar cualquier diagnóstico o tratamiento recomendado por la IA y asumir la responsabilidad final por el bienestar del paciente.

Esto es algo que debe dejarse claro y con el menor grado de ambigüedad posible. Uno de los tantos conceptos que aprendí del excelente curso del Dr. Jules White en Coursera sobre Prompt Engineering for ChatGPT se relaciona justamente con este aspecto. Debemos «adueñarnos» de sea lo que decidamos hacer con lo que obtengamos de la IA.

En mi caso, frecuentemente uso la IA para mis análisis de datos. Esto no significa que, si como consecuencia de este análisis, se produce algún daño o desenlace desafortunado, yo soy menos responsable. La IA puede sugerirme un fragmento de código en Python para poner a prueba alguna idea de investigación, pero soy yo quien decido implementar ese código. Usar IA sin tener una pericia de dominio, un conocimiento específico del campo de aplicación, es muy peligroso.

La IA por sí sola no es una entidad moral. Por lo tanto, se debe mantener bajo control humano. Sin líneas claras de responsabilidad, la IA podría violar derechos y causar daños sin consecuencias.

Y esto es aplicable más allá del uso personal o profesional que uno pueda hacer de la IA. Las empresas que implementan soluciones de IA también deben someterse a auditorías externas para verificar su seguridad. Solamente mediante la rendición de cuentas, la IA ganará la confianza del público.

Transparencia

La transparencia en la implementación de la IA es un principio esencial que asegura que los sistemas de IA no solo sean eficientes, sino también comprensibles y accesibles para los usuarios. La transparencia implica que los sistemas de IA deben ser explicables — en otras palabras, no deben operar como «cajas negras» incomprensibles. Una caja negra se refiere a un algoritmo que, a pesar de su capacidad para predecir resultados, resulta indescifrable desde una perspectiva humana.

Es crucial que los algoritmos y modelos de IA sean capaces de comunicar, de manera clara y en un lenguaje accesible, cómo llegaron a una determinada conclusión o recomendación. Por ejemplo, si un sistema de IA rechaza una solicitud de préstamo o sugiere un tratamiento médico específico, es esencial que el proceso detrás de estas decisiones sea transparente y comprensible para quienes tomarán acciones basadas en estas recomendaciones.

Esto es algo que, para mi función como científico de datos, es vital. Por ello, cada modelo predictivo o pronóstico que desarrollo, cada conclusión a la que llego, debe ser comprensible para los otros miembros del equipo de investigación. Si no puedo mostrar y explicar cómo llegué a un resultado en particular, en términos que sean comprensibles para todos, es un signo de que debo mejorar el enfoque usado.

Este concepto de transparencia se vincula estrechamente con la responsabilidad. No es posible asumir responsabilidad por algo que no se comprende. Por ello, la transparencia en los algoritmos de IA es fundamental para entender los procesos que conducen a ciertas conclusiones o resultados. Esto permite a los usuarios y responsables «adueñarse» de esas decisiones y asumir responsabilidad por las acciones derivadas de dicha información.

Además, la transparencia en los sistemas de IA contribuye a su confiabilidad. Permite a los usuarios validar la corrección de las recomendaciones, asegurándose de que no existan sesgos discriminatorios o errores.

Es importante destacar que la transparencia no debe ser una consideración posterior al desarrollo del algoritmo. Debe ser un componente integral desde el inicio del diseño de sistemas de IA, manteniendo siempre en mente la necesidad de explicabilidad y comprensión. La incorporación de la transparencia desde las etapas iniciales del diseño garantiza que los sistemas de IA sean no solo técnicamente avanzados, sino también éticamente responsables y socialmente aceptables.

Conclusión

La inteligencia artificial tiene el potencial de mejorar drásticamente la sociedad, pero también plantea riesgos de daño si se desarrolla y utiliza de manera irresponsable. Adoptar principios bioéticos de equidad, responsabilidad y transparencia será esencial para guiar la IA hacia beneficios ampliamente compartidos. Esta no es una lista exhaustiva, y es evidente que existen otros principios que debemos tener en cuenta, tales como los relacionados con la privacidad y la seguridad de los datos.

Es crucial identificar adecuadamente estos principios. Discutirlos. Implementarlos como salvaguardas. Es la única manera de diseñar intencionalmente la IA para promover la inclusión, la rendición de cuentas y la explicabilidad desde el principio.

Tip

Te invito a reflexionar sobre estos puntos. Únete a mi servidor de Discord y continuemos la conversación sobre cómo podemos hacer para imbuir estos principios en el desarrollo y uso de sistemas de IA. Comparte tus experiencias, dudas e inquietudes al respecto.

Enlaces de interés

Volver arriba