Mark Coeckelbergh: “No deberíamos tener miedo a la IA, deberíamos tener miedo al autoritarismo y al totalitarismo”

Mark Coeckelbergh, en su estancia en Cataluña
+
Descargar

Mark Coeckelbergh, en su estancia en Cataluña

Mark Coeckelbergh, durante la conferencia en la UPC ‘AI and the principles of democracy’
+
Descargar

Mark Coeckelbergh, durante la conferencia en la UPC ‘AI and the principles of democracy’

Mark Coeckelbergh, profesor de Filosofía de los Medios de Comunicación y Tecnología de la Universidad de Viena y de la Cátedra ERA en el Instituto de Filosofía de la Academia Checa de Ciencias de Praga, ha ofrecido una conferencia en la UPC, el 24 de mayo, invitado por el Instituto de Robótica e Informática Industrial (IRI) y el Comité de Ética de la Universidad. Coeckelbergh es autor de numerosos libros, como 'AI Ethics', 'Robot Ethics', 'Introduction to Philosophy of Technology' y 'The Political Philosophy of AI'.

29/05/2023

¿Cómo puede afectar a la inteligencia artificial (IA) a la democracia? Utilizando conceptos de la filosofía política, Mark Coeckelbergh, profesor de Filosofía de los Medios de Comunicación y Tecnología de la Universidad de Viena y de la Cátedra ERA en el Instituto de Filosofía de la Academia Checa de Ciencias de Praga, ha analizado el impacto de la IA en los principios democráticos clave, en su conferencia en la Universitat Politècnica de Catalunya - BarcelonaTech (UPC), titulada ‘AI and the principles of democracy’. El filósofo ha advertido sobre una tendencia hacia el totalitarismo. Pero también ha estimulado la discusión en una dirección más constructiva: ¿cómo podemos utilizar la IA para mejorar la democracia?

Coeckelbergh es autor de numerosos artículos y libors, como ‘AI Ethics’ (MIT Press), ‘Robot Ethics’ (MIT Press), ‘Introduction to Philosophy of Technology’ (Oxford University Press) y, el más reciente, ‘The Political Philosophy of AI’ (Polity Press).  El primero y el último de estos libros están editados en castellano por Càtedra. Su actividad se centra en la ética y la tecnología, en particular la robótica y la inteligencia artificial, y participa en varios proyectos de investigación nacionales y europeos sobre IA y robótica. Ha visitado la UPC, el 24 de mayo, invitado por el Instituto de Robótica e Informática Industrial (IRI) y el Comité de Ética de la Universidad.

"La inteligencia artificial pone en peligro la libertad y roza con cuestiones relacionadas con la justicia"

Mark Coeckelbergh

En relación con el tema de su último libro, 'The Political Philosophy of AI', ¿qué papel tiene la filosofía política en la implementación de la IA?

La IA levanta no solo preguntas éticas, sino también políticas, puesto que tiene un gran impacto en nuestra sociedad. Por ejemplo, pone en peligro la libertad y frota con cuestiones relacionadas con la justicia. Pensad en las posibilidades que ofrece para manipular las decisiones de la gente o en el sesgo de la IA. Si queremos tratar con estas cuestiones, necesitamos herramientas conceptuales apropiadas para ello. La filosofía política puede ayudarnos a discutir los temas políticos de fondo.

En la conferencia ha dicho que el futuro de la IA debería ser democrático. ¿Deberíamos tener miedo a la IA? ¿Podría afectar a la democracia en un sentido positivo?

Si nuestras democracias son ya débiles e impregnadas de populismo, la IA puede empeorarlo. Pensad en la manipulación de las elecciones y en la difusión de desinformación y de fake news. No deberíamos tener miedo a la IA, deberíamos tener miedo al autoritarismo y al totalitarismo. Si queremos hacer algo, debemos utilizar la IA de una forma positiva y constructiva para la democracia, por ejemplo, utilizándola para que nos ayude en los procesos deliberativos. La IA puede informar a la gente y ayudarla a encontrar consensos.

¿Cómo puede solucionar problemas globales, la IA?

La IA puede ayudarnos con el cambio climático, por ejemplo. Puede predecir eventos climáticos extremos y apoyar un uso más inteligente de la energía. Sin embargo, es importante tener en cuenta la ética y la política cuando la utilizamos. La IA puede contribuir en sí misma a los problemas globales. Por ejemplo, contribuye a los problemas medioambientales y climáticos, por el uso de energía y las emisiones de carbono, relacionadas con la formación de grandes modelos lingüísticos, con los centros de datos y otras infraestructuras y dispositivos necesarios para la IA. Es necesario, por tanto, abordar estas cuestiones, tanto en el ámbito técnico como de regulación.

"Deberíames ir con mucho cuidado cuando delegamos decisiones en las máquinas, porque esto representa dilemas de responsabilidad y de rendimiento de cuentas."

Mark Coeckelbergh

¿Cree que estamos delegando demasiado poder de toma de decisiones a las máquinas?

Deberíamos ir con mucho cuidado cuando delegamos decisiones a las máquinas, porque esto presenta dilemas de responsabilidad y de rendimiento de cuentas. Deberíamos asegurarnos de que los seres humanos se pueden hacer responsables y responder por todas las decisiones que se toman. De lo contrario, tenemos un dilema moral y también un problema de legitimidad política: los ciudadanos tienen el derecho de saber por qué se ha tomado una decisión concreta. Pensad en la distribución de prestaciones sociales o en las decisiones judiciales... La IA puede ayudar, pero necesitamos mantener la responsabilidad y el criterio en el lado de los seres humanos.

En su conferencia hemos visto una sala llena de estudiantes escuchando una lección sobre democracia y filosofía. ¿Vuelven a estar de moda, la filosofía y la ética?

Vivimos en un mundo cada vez más confuso y profundamente problemático por muchos motivos. Creo que los jóvenes ven la filosofía como una de las herramientas que podemos utilizar para entender mejor el mundo y reflexionar sobre hacia qué dirección queremos ir. No siempre es fácil encontrar las formas correctas de vivir y convivir con las tecnologías digitales, hoy en día. Pero este es precisamente el reto clave de nuestra época. Aquí es donde puede ayudarnos la filosofía.