Catedrático de Ética de la Universidad Jaume I de Castellón. Ha ampliado estudios de Filosofía Política en Frankfurt (Alemania) y de Ética económica en ST.Gallen (Suiza), así como en la Universidad de Notre Dame (Estados Unidos). Sus líneas de investigación incluyen: ética empresarial, democracia deliberativa, diseño institucional, sociedad civil, ética de la inteligencia artificial y democracia algorítmica. Ha escrito numerosos libros y artículos. En la actualidad es Director del Departamento de Filosofía y Sociología.
1. ¿Qué te sugiere el concepto de ética de la responsabilidad radical?
El predicado radical introduce siempre la idea de ir al origen, a la raíz, al fundamento de las cuestiones, actividades o prácticas. Esto significa, a mi juicio, que, al acompañar al concepto de responsabilidad, incide en su significado primario: reconocer que responsabilidad viene de responder, de decir y hacer aquello que se espera de nosotros, tanto de las personas como de las instituciones. Por ejemplo, al hablar de una “empresa responsable” o de una “universidad responsable”, estamos diciendo que son capaces de responder de lo que se espera de ellas. Esto es lo que denominamos ética: un carácter abierto a la responsabilidad, capaz de dar razón de lo que hace o deja de hacer. Radical indicaría así, una responsabilidad completa y sincera. De esta capacidad de responder ante los demás depende la generación y mantenimiento de la confianza.
2. Hace dieciocho años publicaste “Ética empresarial. Del diálogo a la confianza”, un libro de cabecera para muchos de los que empezábamos a trabajar en el ámbito de la responsabilidad social empresarial. ¿Nos puedes explicar hasta qué punto la tesis que defendías resulta ahora de actualidad?
Creo sinceramente que hoy se aprecia mejor la innovación que el libro representó en su momento y también su actualidad, puesto que desarrolla las ideas básicas para entender la relación entre ética y confianza, entre la ética empresarial y las bases éticas de la confianza depositada en la empresa. Unas ideas que tienen que ver tanto con la toma de decisiones en la empresa como con el diseño institucional de las mismas. La confianza es la clave del libro y a ella se dedican sus páginas centrales. Allí se explican ideas como el contrato moral que subyace a la credibilidad de la empresa, la potencialidad de la teoría de los stakeholder para concretar y gestionar el diálogo y acuerdo entre los grupos de interés, así como una visión de la empresa como institución donde la participación y el valor compartido son las principales orientaciones, etc.
Pero el libro no se detiene en una filosofía de empresa. Se atreve a complementar la ética del discurso con la teoría de los stakeholder, pasando de la teoría a la práctica, a una propuesta de un sistema integrado para la gestión de la ética en la empresa, de un diseño institucional capaz de generar confianza. Un diseño basado en una infraestructura ética que contiene desde una nueva generación de códigos éticos, hasta la propuesta de una auditoría ética, pasando por los comités de ética y los informes de sostenibilidad.
Un buen ejemplo de esta actualidad es la tesis principal del libro: la responsabilidad social empresarial o forma parte de la ética empresarial, del carácter de la empresa, de su compromiso sincero y público, o es un simple instrumento para el beneficio económico de los accionistas y propietarios. Sin el marco de una ética empresarial no podemos visibilizar la manipulación y la instrumentalización que continuamente se hace de la responsabilidad social empresarial, menos aún aprovechar el activo que supone la ética para generar confianza.
3. Ahora se empieza a utilizar la expresión “capitalismo de stakeholder”, como una expresión actualizada de lo que en su momento se llamó “responsabilidad social empresarial”. Desde una perspectiva ética, ¿Qué opinas de esta expresión y qué implicaciones está teniendo en el mundo empresarial?
Los conceptos sirven para representar lo posible y lo deseable, para decirnos lo que es el caso y para orientarnos, indicarnos el camino a seguir. Pero también sirven para ocultar la realidad, para encubrir situaciones claramente injustas. Me temo que tras la pretensión de sustituir el término “responsabilidad social empresarial” por el de “capitalismo de stakeholder” estemos frente a este segundo caso. Dos razones para esta desconfianza.
En primer lugar, el término no es nada novedoso, remite a principios de los años noventa, al igual que el de “sociedad de stakeholder” o el de “capitalismo social”. En todos estos casos se intentaba pensar en un modelo de empresa capaz de superar el autismo social y medioambiental en el que actuaba. Con sus pros y sus contras, estamos ante las mismas pretensiones que la responsabilidad social de la empresa: afirmar que el beneficio empresarial no se debe confundir con el negocio de los accionistas, sino que también debe incluir a todas las partes implicadas y afectadas por su actividad, incluido por supuesto el medio ambiente. Pero la responsabilidad social se refiere a la empresa como institución, pertenece a la sociedad civil y tiene indicadores evaluables (GRI, ODS), para saber si avanzamos o retrocedemos en los compromisos públicos que definen su ética, su carácter. Al introducir el término “capitalismo” nos vamos al sistema económico y se difumina la responsabilidad de la empresa como agente de justicia.
En segundo lugar, presentar el concepto de “capitalismo de stakeholder” como un nuevo concepto de capitalismo, y hacerlo en el contexto del Foro Económico Mundial, no mueve precisamente a la confianza. Relacionar este concepto con otros como “el gran reinicio” o “el nuevo contrato social” y hacerlo quienes han provocado la actual situación de desigualdad, pobreza, discriminación de personas y países, destrucción del medio ambiente, etc., es puro y simple cinismo.
Ir más allá de una economía cortoplacista, exigir que los valores orienten una distribución igual de cargas y beneficios y puedan convertirse en bienes para todas las partes implicadas y afectadas por la actividad empresarial, es una obligación moral de la que depende la credibilidad de la empresa. Pero no basta con decirlo, incluso con desearlo, debemos demostrar con hechos -medibles, evaluables y comparables- que la empresa se esfuerza por caminar en esta dirección. En mi opinión, la sustitución propuesta es solo una maniobra de confusión, un intento de legitimar la injustica reinante.
4. Actualmente estás trabajando en el campo de la ética y la inteligencia artificial (IA). La IA ¿nos está obligando a dudar sobre el significado de nuestra condición humana? ¿Por qué?
Las éticas aplicadas deben dar razón del saber moral que subyace a la confianza depositada en las distintas acciones, prácticas e instituciones que conforman el tejido social y, en este sentido, han de responder de las demandas de justicia que acompañan a la actual revolución producida por la inteligencia artificial y sus tecnologías. Este es el caso de las actuales propuestas para el desarrollo de una ética digital, puesto que es imposible callar ante la actual colonización algorítmica que está socavando los pilares de nuestra convivencia, afectando a nuestra identidad, individual y colectiva, a nuestra forma de entender y gestionar nuestra vida en común.
Pero este concepto de Inteligencia artificial lleva también a confusión. Cuando hablamos de inteligencia nos referimos siempre a una propiedad de los organismos biológicos, de los seres vivos capaces de interactuar por sí mismos con su entorno. En el caso de los seres humanos de construir y dar sentido a la realidad. Sin embargo, los datos son seleccionados e interpretados por seres humanos y sus algoritmos diseñados para alcanzar determinado resultado o resolver un problema. Ambos son creados por los expertos en sus empresas y centros de desarrollo. Si los algoritmos de la Inteligencia Artificial son capaces de aprender por sí mismos es porque así han sido programados. A partir de estas entradas, la máquina puede calcular y aprender más rápido que los humanos que la han programado. En el caso de la Inteligencia Artificial, incluso logra aprender por sí misma. Pero no alcanza a ir más allá de la lógica de los datos. Sin la intervención humana no son nada. Por eso tampoco es artificial, puesto que proviene de nuestra inteligencia, del trabajo conjunto de los científicos de datos, programadores, desarrolladores, etc. De ahí que no se pueda ocultar, por más ideología algorítmica que lo intente, que las máquinas no son las responsables, sino quienes las han creado y utilizado, así como las organizaciones en las que desarrollan su trabajo.
Como cualquier otra tecnología o conjunto de tecnologías, la Inteligencia artificial puede entenderse como un medio para mejorar nuestras vidas o como un fin comercial o político al que sacrificar nuestra libertad y nuestra autonomía. No es buena ni mala, depende de quién la maneje y para qué. Otorgar responsabilidad a la máquina y sus algoritmos es cómo echar la culpa del crimen al cuchillo utilizado.
La condición humana y la dignidad en la que se apoya no están en peligro por las tecnologías de la Inteligencia Artificial, sino por la voluntad de sustituir nuestras decisiones y acciones por algoritmos, en aras del negocio y del poder de unos y de la comodidad e inconsciencia de los demás. El peligro está en la opacidad de estas tecnologías y en la falta de control por parte de quienes van a sufrir las consecuencias. Sin esta participación seguro que no vamos hacia una mejora de la humanidad, como nos prometen, sino hacia un aumento del aislamiento social y de la pasividad, hacia un mundo menos humano. Por eso una de las primeras preguntas que debemos responder desde una ética digital, antes incluso de diseñar y programar, es qué significa un algoritmo justo.
5. Las empresas tecnológicas están ocupando las primeras posiciones en el ranking de las más grandes del mundo. Esto nos hace pensar que el control del diseño y la gestión de la Inteligencia Artificial está bajo el poder de intereses privados. ¿Cómo podemos conseguir convertir el debate sobre el control del poder tecnológico en una cuestión democrática?
Que la Inteligencia Artificial y sus algoritmos estructuran ya nuestro mundo es una realidad difícil de rebatir, al igual que lo es que sus dueños y distribuidores a través de las redes son las grandes corporaciones tecnológicas. Esto es, son diseñadas y gestionadas desde el interés privado, no pensando en el bien común. Con millones de accionistas y miles de millones de usuarios, estas empresas son un verdadero centro de poder que no tiene escrúpulo alguno en influir en las elecciones y en los gobiernos; en manipular la opinión pública y convertirse en los nuevos y casi exclusivos productores de la información; en vender nuestra privacidad, en fabricar nuestros deseos, etc. Incluso en crear realidades alternativas donde el dinero es la puerta de entrada. Son hoy quienes poseen el mayor poder que existe: la capacidad de crear sentido, de decidir lo que es real o no lo es, de lo que es justo o injusto. Son los protagonistas de la creación y mercantilización de los datos, siempre al servicio del mejor postor, sea el mercado o el estado. Decir que este nuevo leviatán no influye e, incluso, afirmar que nada tiene ver con la democracia, es no querer ver la realidad en la que vivimos.
Cuando hablamos de ética, de lo que hacemos con nuestros espacios de libertad, solemos detenernos en la conducta individual, en nuestro caso en la responsabilidad de los científicos de datos, investigadores, programadores, accionistas, usuarios finales, etc. Olvidamos que estos espacios de libertad, esta toma de decisiones y las conductas y prácticas consiguientes, se forman dentro de empresas y organizaciones; de agencias gubernamentales; de centros de investigación; etc. Quiero decir que las éticas aplicadas, la ética digital en nuestro caso, no puede reducirse a la responsabilidad individual –por más importantes y decisiva que sea- también debe abarcar a las instituciones, privadas y públicas, en cuyo seno se crean y desarrollan estas tecnologías, a la empresa como institución socio-económica. Este es el punto de enlace entre la ética empresarial y la reflexión democrática.
No tenemos que convertir el debate sobre el poder de las grandes tecnológicas en una cuestión democrática, puesto que ya lo es. No lo ha sido para una democracia que reduce la participación al voto cada cuatro años y todo el poder al poder político. Pero sí lo es para una democracia de doble vía que sabe que solo desde la complementación entre el estado y la sociedad civil -origen de todo tipo de poder y fuente de legitimidad, de credibilidad y confianza- es posible diseñar mecanismos de seguimiento y control de estas grandes empresas. Como bien dice la apuesta de la Comisión Europea, necesitamos una Inteligencia Digital legal, ética y sólida. Por primera vez aparece la ética como condición de posibilidad de una Inteligencia Artificial que merezca el calificativo de justa.
El poder tecnológico tendría así dos vías complementarias para su seguimiento y control. Por una parte, el estado y la regulación jurídica. Como bien sabemos, el derecho y las leyes actúan desde la coacción externa, desde la presión de las sanciones. Por otra, los recursos morales de la sociedad civil que operan desde el compromiso y la propia voluntad, desde el convencimiento de que así debemos actuar. Por cierto, un compromiso esperado por parte de todas las partes implicadas e interesadas y de cuyo cumplimiento depende la confianza. Es aquí donde entran los mecanismos éticos de autorregulación, lo que yo denomino una infraestructura ética, aplicable a cualquier tipo de institución tenga el tamaño que tenga, sea privada o pública. Un sistema de gestión ética de la confianza que incluye códigos éticos y de buen gobierno, memorias de responsabilidad, comités de ética, auditorías, etc. Elementos que permitan la participación de todos los grupos de interés, de una forma medible y evaluable. Cuando hablamos de mecanismos voluntarios no hablamos de arbitrariedad o discrecionalidad de los directivos, sino del compromiso firme y público de todas las partes implicadas. No debemos confundir empresa con negocio.
Del poder que de hecho tienen los recursos morales que posee la sociedad civil da buena cuenta el interés de las grandes tecnológicas por apropiarse de la palabra ética, con el fin de servir de cubrimiento o fachada para un comportamiento inmoral y para frenar la regulación jurídica. Pero, como muestra la fallida creación del comité de ética de Google, no han aprendido aún que los recursos morales son fruto de un saber, de una capacidad compartida y que, por tanto, no se pueden instrumentalizar a voluntad. Lo único que han conseguido con esta farsa es hacer el ridículo y aumentar la desconfianza en la empresa.
6. La convergencia de la Inteligencia Artificial, el Big Data y el Internet de las cosas está dando lugar a propuestas democráticas basadas en algoritmos, modelos matemáticos de decisión y uso masivo de datos. ¿Cuáles son los riesgos, los límites o las consecuencias de la aplicación de un sistema democrático sustentado sobre algoritmos y macrodatos?
El principio democrático se refiere a la idea regulativa de que deben ser los mismos los que toman las decisiones y los que sufren las consecuencias. Por lo tanto, por más endeble que sea, el núcleo moral que todo sistema democrático presupone se encuentra en nuestra dignidad, en nuestra capacidad de ser libres para participar en todas las decisiones que nos afectan. Desde este horizonte de acción, la participación no puede ni debe limitarse a la participación política, debe incluir a todas aquellas instituciones que tienen poder y requieren, por tanto, legitimidad. En todas ellas su credibilidad depende, en primer lugar, del horizonte de acción que representa el diálogo y acuerdo entre todos sus grupos de interés.
Junto con el profesor Patrici Calvo estamos trabajando en el concepto de democracia algorítmica, como un ejemplo de propuestas democráticas basadas en las tecnologías de la Inteligencia artificial. Con este nombre nos referimos a un sistema de organización social y de gobernanza política cuyo horizonte de actuación radica en sustituir en todos los procesos de toma de decisiones, ya sea en las políticas públicas, en participación electoral, en el sistema policial y judicial, etc., la participación ciudadana por los algoritmos. No se trata de que los algoritmos pueden ayudar a tomar decisiones para alcanzar los fines democráticos de forma más eficiente, eficaz y precisa. Se trata más bien, dada la deriva actual de nuestras democracias, de reemplazar la participación de los afectados por las Inteligencia Artificial y sus tecnologías en todos los procesos de deliberación, decisión y diseño institucional, tanto en el estado como en la sociedad civil.
Como modelo de democracia esta propuesta es autodestructiva, por más fascinación que produzca la falsa neutralidad y objetividad de los algoritmos y los datos, y, por tanto, su eficacia a la hora de alcanzar una sociedad más justa. Desde nuestro punto de vista, con el concepto de democracia algorítmica no se pretende introducir un nuevo modelo de democracia, totalmente imposible si pensamos en abandonar nuestra libertad y autonomía, nuestra dignidad, en suma, en manos de los algoritmos. Con este concepto se pretende más bien visibilizar el peligro que supone la creciente sustitución de la participación y la autonomía en la toma de decisiones y en la formación de la opinión pública, por los datos y los algoritmos. Cuando nos damos cuenta del paso del apoyo o refuerzo a la sustitución, ya suele ser demasiado tarde, como bien muestra la mala utilización de la Inteligencia Artificial en el sistema judicial o crediticio, por no entrar en el tema de los actuales tecno-populismos. Recordemos que la neutralidad y objetividad solo nos muestran quién tiene el poder de dar sentido a la realidad.
7. ¿Cómo puede afectar la IA, desde una perspectiva ética, a la toma de decisiones en el ámbito las empresas? ¿Y en la democracia? ¿Cuáles son los principales riesgos que plantea a las organizaciones, a los gobiernos y a la ciudadanía?
En todos los ámbitos de la vida en común la introducción de la Inteligencia Artificial está realizando aportaciones valiosas que, de buen seguro, están mejorando la toma de decisiones, desde la medicina a la economía, pasando por la educación. Pero debemos identificar bien el riesgo más importante que corremos que, en mi opinión no es otro, que rehuir la responsabilidad por lo que hacemos o dejamos de hacer.
Los algoritmos no son neutros. En primer lugar, las decisiones tomadas por los algoritmos pueden ser datos incompletos y, por tanto, no fiables, pueden ser sesgados o simplemente estar equivocados. En segundo lugar, los sesgos pueden surgir tanto de los valores sociales preexistentes que se encuentran en las instituciones, prácticas y actitudes sociales, de las que surge la tecnología, como de las personas que manejan los datos en origen y, por supuesto, de los intereses que se esperan satisfacer, de los tipos de preferencias incorporadas a los algoritmos. En tercer lugar, los algoritmos son cada vez más complejos y opacos, de forma que en muchos casos no es posible ni explicar cómo funcionan, ni mucho menos admiten su rediseño una vez en marcha. Y así, todo un largo etcétera.
Podríamos continuar intentando visibilizar aquello que solo desde la fascinación por el interés técnico de dominio se puede ignorar: existe un marco de sentido, una reducción de la realidad a lo medible y cuantificable que presupone un interés previo, un interés por la objetivación y matematización, una predisposición guiada por unos valores concretos que nada tienen de neutrales. Los datos son el producto de una decisión previa acerca de lo que es real o n o lo es, de una valoración.
Por ejemplo, poseer los más datos posibles, tanto como punto de partida como para medir los resultados, es clave en la toma de decisiones en las políticas públicas, pero junto a los instrumentos de la inteligencia artificial, debemos definir quién participa en ellas y qué criterios utiliza para la valoración de las mismas, para su evaluación. ¿Quién define estos criterios? ¿Quién mide las consecuencias? ¿Desde dónde y cómo recogen los datos? Más aún, ¿frente a qué se contrastan? No estamos negando que los radares no sean necesarios para conducir el barco, estamos diciendo que queremos decidir a qué puerto queremos llegar, dónde queremos ir, cómo queremos vivir en común. No debemos confundir el mapa con el territorio.
Vayamos al caso de la empresa. Existe actualmente una fuerte presión de las administraciones para incorporar las nuevas tecnologías a las empresas, aunque en muchos casos no se sabe muy bien qué pueden aportar a la competitividad y a la eficiencia en la gestión. Ahora bien, si quieres acceder a las ayudas públicas, ya sabes: desde la automatización de todo lo automatizable, pasando por la elección del personal por un algoritmo, hasta el control del tiempo que necesitamos para ir al servicio. La última propuesta que tuve que debatir fue la utilización del reconocimiento facial para medir el clima laboral.
También la ciudadanía se ha visto mermada por la introducción de las nuevas tecnologías de inteligencia artificial. Desde no poder acceder a la información necesaria para pedir certificados, permisos, etc. hasta encontrarte con un muro llamado sistema: “nada podemos hacer: es el sistema”. Resultado: el aumento de la desigualdad y, por tanto, de la injusticia. Necesitamos de una ciudadanía digital y debemos empezar por afirmar que ninguna decisión que nos afecte puede tomarse sin la intervención humana, en especial de los que van a sufrir las consecuencias. Esta es la clave que une ética y democracia al hablar de Inteligencia Artificial.
8. Por último, si tuvieras que ilustrar, con tres palabras qué significa para ti incorporar la ética en la toma de decisiones ¿cuáles serían?
Dado que algunas de mis respuestas han sido probablemente demasiado extensas, voy a concluir de forma más breve, puesto que me sobra con dos palabras: generar confianza. Esta es la aportación más importante de la ética a la toma de decisiones. Es hora de abandonar la idea de la ética solo como una limitación y un pasivo para la empresa. Es una capacidad que tenemos todos los seres humanos que puede convertirse en un activo para la empresa, en un factor de innovación y avance hacia una democracia, como diría Adela Cortina, radical y auténtica. Una ética empresarial debe ser consciente de su aportación al sistema democrático, puesto que cuando hablamos de confiar en los algoritmos hablamos de confiar tanto en los expertos como en las empresas donde se diseñan, se desarrollan y aplican estas tecnologías.
Simplificando en dos palabras: ¡generar confianza!
Fuente: Beethik