La filósofa Adela Cortina reflexiona en su último ensayo, ‘¿Ética o ideología de la inteligencia artificial’ (Paidós) sobre la Inteligencia Artificial y el “eclipse de la razón comunicativa» en una sociedad saturada de tecnología
Leticia Blanco – Barcelona 22 OCT 2024 4:50
En 2018 un robot se presentó como candidato a las elecciones municipales de Tama New Town, un distrito de Tokio con más de 150.000 habitantes. Michihito Matsuda, así se llamaba el robot ginoide (con forma de mujer), prometió durante la campaña acabar con la corrupción, el nepotismo y otras debilidades humanas gracias a un algoritmo. Quedó tercera. Es una de las anécdotas de las que se sirve la filósofa Adela Cortina en su último ensayo, ¿Ética o ideología de la inteligencia artificial? (Paidós) para hablar de la ‘frankenfobia’ que muchos ciudadanos sienten ante el avance de la IA y, también, del “eclipse de la razón comunicativa en una sociedad tecnologizada”.
P. ¿Qué significa que un robot se presente a unas elecciones y miles de ciudadanos le voten?
R. Me llamó la atención que el robot prometiese ser imparcial, buscar el bien para todos, hacer encuestas para conocer las preferencias de la gente, no dejarse manipular… claro que a la gente le entusiasmó. Este caso nos dice más sobre cómo deberían ser los políticos y qué les falta. No es un caso único, ha habido políticos virtuales en otros países.
P. En el libro explica que existen algoritmos que presiden consejos de administración de fondos de inversión. Y casos como Google, Unilever, L’Oréal y Amazon, que tienen un algoritmo dentro o al frente de la dirección de recursos humanos…
R. Sí, es terrible. No podemos poner decisiones sobre las personas humanas en manos de los algoritmos. Es absolutamente inmoral. Y además, también cometen fallos y toman decisiones verdaderamente desacertadas.
P. La tecnología siempre se presenta con un aura de neutralidad, pero en el fondo también opera con sesgos, ¿no?
R. Evidentemente, los mismos que las personas que han creado esa tecnología. No hemos ganado esa objetividad maravillosa. Fíjate que casi siempre salen beneficiados los varones, y hay otros sesgos de raza, de pobres y ricos… es uno de los grandes límites.
P. En su ensayo habla del peligro del “eclipse de la razón”, del que ya hablaron otros filósofos en los 60, ¿a qué se refiere?
R. El eclipse de la razón sucede cuando la razón instrumental es la que triunfa, sin atender a valores ni fines. Creo que se está produciendo de nuevo en nuestra sociedad. La idea de que todo es instrumental ha eclipsado la razón comunicativa, la que consiste en reconocer que somos humanos y construimos el mundo juntos a través del diálogo, tratando de llegar a acuerdos. La razón instrumental entiende de instrumentos, pero no de acuerdos. Se hace muy mal uso de la palabra.
P. Usted afirma que la palabra se está prostituyendo.
R. En la vida pública se dicen mentiras continuamente y eso no tiene ningún tipo de repercusión. Da igual que se transmitan ideas falsas. Es lo que hace que vivamos en un mundo completamente instrumentalizado, y así no se construye una democracia de ninguna manera.
P. En su último ensayo, ‘Nexus’, Yuval Noah Harari alerta del enorme peligro potencial de una IA autónoma.
R. La única autonomía que conocemos es la de los seres humanos, que somos los que nos proponemos metas. Las máquinas no hacen nada de eso. Harari tiene una verdadera obsesión con que nos están robando nuestros datos y nos llega propaganda y estamos perdiendo nuestra libertad. No es verdad, los seres humanos no hemos perdido libertad. Cuando te mandan propaganda puedes aceptarla o no. Harari es un pensador muy sabio pero me parece muy desenfocada esa idea.
P. ¿Qué le parece el papel de la UE frente a la IA, entre las dos grandes potencias, China y EEUU?
R. Quien se quede atrás saldrá perdiendo. Lo que está intentando la UE es compaginar el progreso con una normativa que sea cauta y prudente para que la IA se utilice bien, en ocasiones es excesiva. No hay que quedarse atrás, porque eso supondría dañar a los ciudadanos europeos. Hay que avanzar, eso siempre. La IA es un buen proyecto que hay que llevar adelante, siempre desde la prudencia y la responsabilidad.
P. ¿Cómo ve a las empresas?
R. Se va a perder una parte importante de los puestos de trabajo, al menos en la primera época. Hay que estar muy atentos para que nadie quede desasistido y se respeten los derechos económicos y sociales de la UE. Empresas de magnitud que la usen hay todavía muy pocas, las españolas la están asimilando. Ese es uno de los grandes problemas de la UE, que no tenemos ningún tipo de liderazgo en ese tipo de temas.
P. En su ensayo menciona el transhumanismo y el posthumanismo, que se han puesto de moda entre muchos líderes tecnológicos.
R. El ser humano siempre ha intentado ser mejor, eso no es nuevo. Lo que ocurre con los posthumanistas es que están haciendo unas promesas que no se pueden cumplir, como que en el año 2048 acabaremos con la muerte. El primer deber de una ciencia ética es no mentir. Ya tenemos una serie de ideales que merecen la pena, como la Declaración de Derechos Humanos de 1948 o los Objetivos de Desarrollo Sostenible. Si se afirma como científico o que no es, estamos hablando de ideología, no de ciencia.
P. ¿Cree que los partidos políticos deberían contarnos qué piensan de la IA, igual que hacen con otros temas como el cambio climático?
R. Los partidos políticos se dedican a decir cada uno lo contrario que el otro. No me parece muy interesante lo que puedan decir de la IA realmente, mejor conocer la opinión de los especialistas. No hay por qué hacer caso todo el rato. No son el criterio de autoridad, ni mucho menos.
Fuente: epe.es