18/02/2019 – CASTELLÓN. Doctor en Filosofía Moral, Patrici Calvo (l’Alcora, 1973) es profesor de Ética en la Universitat Jaume I, donde también coordina el Máster Interuniversitario en Ética y Democracia. Asimismo, es miembro del Comité de Bioética Asistencial del Hospital General Universitario de Castellón y coordinador de la Mesa de Responsabilidad Social. Investigador en ámbitos como la economía o la ética y la responsabilidad social, también trabaja en el diseño de un marco normativo o Ética de las Cosas (EoT) que permita orientar la transformación digital en un sentido más justo, responsable y sostenible. Recientemente publicó el artículo Bioética, Salud y Publicidad 4.0: retos éticos del marketing algorítmico, (en el número 49 de Cuadernos de la Fundació Víctor Grífols i Lucas, 2018), una reflexión sobre el impacto que los modelos matemáticos están teniendo en el marketing en el sector de la salud.

-Hoy se puede adaptar la publicidad de cualquier producto a los gustos y necesidades que el usuario está revelando en las redes sociales -incluyendo WhatsApp- porque muchas empresas rastrean en ellas en busca de información sobre nuestro comportamiento. ¿Es eso correcto?
-La transformación digital está metida en nuestras vidas, por todas partes. Pero para empezar, hay una mala praxis en la captación de los datos. Si pensamos en la frontera entre lo público y lo privado, ¿hasta qué punto es lícita esa captación? En realidad, todos le damos al botoncito de “aceptar condiciones” porque si no, te excluyes del mercado. Te dicen pues no le dé al botoncito. Y si no estás en Internet, estás excluido del mercado. Y eso tampoco se le puede exigir a la gente, porque o te autoexcluyes o les cedes absolutamente todo… incluso muchas webs lo primero que te piden es acceso a todas tus fotografías, que son privadas.

-Esto también afecta a la venta de productos de salud.
En el ámbito de la salud es todavía más complicado, porque tiene una vertiente bastante abyecta. Quieren tener acceso y parece que ya empiezan a tenerlo, a los historiales clínicos, como vimos hace poco en una jornada en la Universitat Pompeu Fabra. ¿Están o no haciéndolo? Se sospecha que sí. Sabemos que los hackers hacen lo que les da la gana, entran en las webs más protegidas del mismo… Eso es totalmente privado, y hay empresas poderosas como las farmacéuticas, que están vendiendo la parte buena de la transformación digital: hoy, la minería de datos te permite buscar patrones, y gracias a ese historial médico que todos tenemos, podemos ver los resultados de una cierta medicina, se pueden hacer patrones para mejorar las medicinas y los procesos de curación, y eso a todos nos interesa.

Hoy, si no estás en Internet, estás excluido del mercado

-¿Y la parte mala es…?
Pues el problema, obviamente, es que para hacer esto hay que pedir permiso a la persona que tiene ese historial. El historial médico es personal, no se puede utilizar de forma ilícita por ningún médico, enfermero ni administrativo… ¿qué sucede? ¿cómo va a repercutir positivamente eso en las personas que ceden esos datos? Pues de ninguna forma. El otro día veía un reportaje sobre una medicina para la fibromialgia, que costaba 100.000 euros la cajita; luego está la distrofia muscular de Duchenne, que de momento no tiene cura pero se trata con medicinas que valen unos 400-500.000 € al año. Hablamos de cantidades ingentes de dinero, con las que las farmacéuticas van a ganar todavía más dinero. Al menos tendrá que haber convenios para que cuando tengan acceso a esos datos, repercuta positivamente en la sociedad, y eso no se está dando. Nos venden la parte buena pero luego, si llego a poder utilizar esas medicinas es porque el Estado tiene que gastar ingentes cantidades de dinero para pagarle las patentes durante 25 años a las farmacéuticas.

-Así las cosas, parece que hay mucho trabajo por hacer
-Pues sí. Aquí tenemos un mundo visible de la transformación digital, pero tenemos también otro invisible aunque lo tenemos en los morros: el uso ilícito de los datos y el beneficio de esos datos, ambas cosas son muy importantes y la población no está presionando suficientemente ante el uso ilícito de los datos personales, porque no nos están enseñando esa otra cara.

-Entonces, ¿tenemos un recelo absoluto frente a ciertas cosas pero cuando le damos a aceptar condiciones nos justificamos a nosotros mismos diciéndonos que no es para tanto?
-Es algo así, porque hoy no tienes otra posibilidad: o te excluyes o te incluyes. No hay punto medio en este tema.

-Usted defiende que los algoritmos publicitarios muestran sesgos preocupantes: (sexista, racista, homófobo, xenófobo y aporófobo), sesgos que aplican al relacionarse con las personas, tomar decisiones y/o elaborar listas, objetivos o perfiles digitales. ¿Se escudan las empresas en los algoritmos informáticos para diluir su responsabilidad?
Evidentemente, está pasando exactamente eso. ¿Quién tiene la responsabilidad? Al estirar de la cuerda, llegamos a que se diseña un algoritmo, que es un modelo matemático, que me dice si esto, lo otro y si lo otro, aquello . Y en el fondo se basan en el deep learning, en el aprendizaje profundo por parte de las máquinas: copian lo que son las neuronas cerebrales, lo que ellos llaman redes neuronales artificiales, imitan de forma muy tosca y simple esas neuronas, y parece que es el algoritmo el que toma esas decisiones, que tiene autonomía para tomarlas. Entonces ahí se diluye totalmente la responsabilidad de las personas, y esto ya ha pasado.

Debería haber convenios para que, al menos, el acceso a nuestros datos repercuta positivamente en la sociedad

-¿Cómo?
-Por ejemplo, la Policía ya utiliza los algoritmos para, por ejemplo, decidir qué denuncias de maltrato por mujeres deben ser tenidas en cuenta o no. Y hemos tenido ya en España casos en que un energúmeno, ocho o nueve veces denunciado por una ex pareja, luego asesinó a sus hijos. Por ejemplo, el asesinato de dos niñas en Castellón en septiembre pasado. Y al buscar los motivos por los que no se había dado a esas denuncias la importancia debida, la Policía explicó que llevaban desde febrero utilizando este programa informático… y lo que había fallado era ese algoritmo. La Policía lo que dijo fue mejoraremos el algoritmo o lo quitaremos… pero no ha habido ninguna responsabilidad por ello, ni siquiera sobre quién diseñó el algoritmo. Y mientras, ha habido muertes. Por tanto, ese sesgo y el uso de los algoritmos se está utilizando para lavarse las manos.

-En este punto, ¿se está aprovechando un vacío legal?
-Totalmente, el legislador llega tarde y es lo natural: primero tiene que haber una presión social para que los legisladores se pongan en marcha. Pero hay muchas propuestas de la Unión Europea que todavía no se han concretado en legislación. Por ejemplo en el tema de la publicidad, es bastante importante. Sobre la publicidad subliminal se legisló en los 70 en EEUU y aquí en los 80, pero claro, ese es un caso concreto. Ahora tenemos un problema con los algoritmos, pero todavía no se ha legislado. La UE se propone legislar sobre la Inteligencia Artificial (IA) pero todavía no se ha hecho, la legislación va muy lenta. Ahí es donde la ética, en ese proceso, al menos tiene que aportar un poco de claridad y aportar algún tipo de normativa moral para evitar ese tipo de sesgos y conflictos que están surgiendo. Los propios diseñadores de algoritmos asumen que hay que ir con mucha cautela. Incluso Joi Ito, el director del Media Lab del Instituto Tecnológico de Massachusets (MIT), que es el que más está potenciando estas cuestiones, está diciendo que ojo con esto, no corramos, porque el monstruo nos está devorando.

-Y en el tema de la salud, ¿qué tipo de problemas surgen?
-Esto es muy sensible, porque te pueden estar enviando publicidad sobre un whisky, sobre ese alcohol que has buscado mucho por Internet, cuando tú eres un exalcohólico, o un exfumador… eso es peligroso. Una alumna me decía el otro día en clase: es curioso, porque no quiero tener hijos, pero el algoritmo no para de enviarme anuncios sobre fecundación in vitro, sobre cunas… todo lo relacionado con bebés, y no lo entiendo. Y le pregunté si alguna vez había puesto algo en Facebook o hablado con alguien sobre esto, y me dijo bueno, una vez con mi hermana, porque he tenido una sobrina hace un par de años, y desde ese momento me están bombardeando. Y a lo mejor ella dice que no, pero quizá sí le afecta, porque ella tomó una decisión y ahora parece que el algoritmo está intentando cambiársela, para al final venderle productos. El algoritmo puede atacar sobre todo a las personas más vulnerables, y parece que eso ya se está dando.

El uso de los algoritmos se está utilizando para diluir responsabilidades y lavarse las manos

-Dice también que la publicidad 4.0 se está convirtiendo en un elemento disruptor, que complica la aplicación de los principios de la Bioética, justo cuando la sociedad empieza a tener en cuenta este tema.
Efectivamente, y en el ámbito de la salud estas lógicas que se producen tienen riesgos potenciales. Sí es un elemento disruptor; no sólo en este tema, pero este punto es bastante sensible. Una de las cuestiones tiene que ver con la interconectividad digital, que genera a su vez dataficación. Tenemos muchos datos. La transformación digital puede ser muy buena para mejorar la autonomía de los pacientes: nos da información más personalizada, más concreta, para filtrar la información que interesa a ese paciente y obviar la que no le interesa. El problema es que más información no siempre significa que estemos mejor informados. Se está generando es un filtro burbuja.

-¿Cómo? ¿En qué consiste este filtro?
-Pues es un campo de distorsión de la realidad, en el que al final, a ti el algoritmo sólo te envía aquello que te interesa, y lo otro lo obvia. Por ejemplo: si a mí me afecta demasiado lo que está sucediendo en el Mediterráneo y no hago clic en esas noticias, el algoritmo piensa que no te interesa y deja de enviarte ese tipo de información. Y vives en los mundos de Yupi, pensando que ese problema es parte del pasado. El algoritmo puede crear ese mundo feliz para ti y aislarte de la realidad, que es que sigue habiendo muchas muertes de inmigrantes en el mar. Sobre todo en redes como Facebook y Twitter se está creando ese filtro burbuja. Y eso también es peligroso.

¿Cómo minimizar los efectos negativos de este filtro?
No lo sé, aunque se está trabajando en ello. Hay tal cantidad de información que al final, el fin del algoritmo lo marca la persona, la empresa o la institución que lo crea o diseña. Por ejemplo, aquí en la Comunidad Valenciana ya tenemos Satán, creado por la Conselleria de Transparencia, para detectar corruptos. Y tú puedes querer filtrar esa información por un motivo, pero el algoritmo puede hacerlo por otro. Para afrontarlo hace falta mucha transparencia. Mira, en el tema de la salud, el Juramento Hipocrático está ahí desde hace 25 siglos, y en él es clave el principio de beneficencia: en un ensayo clínico, el objetivo de los investigadores debe ser el bienestar de los participantes. Pero ahora se vela no por el interés del paciente sino que se aprovechan de ellos para ganar dinero. Lo peor es que los poderes públicos lo tienen difícil para vigilar esto, porque el algoritmo es muy opaco.

-Entonces, ¿no hay sistemas para hacer frente a ello? ¿estamos inermes?
-Nos faltan herramientas, pero para hacerle frente, se están utilizando sistemas de monitorización que también aprovechan la transformación digital. La empresa nos monitoriza para captar clientes y fidelizarlos, pero nosotros también podemos utilizarlo. Y cada vez se hace más, sobre todo sobre la base del whistleblowing (que consiste en la denuncia de actos delictivos por parte de los empleados), junto a la comunicación, el almacenamiento y procesamiento de datos masivos, y la participación comprometida de las personas interesadas.

-¿Hay empresas aplicando estos sistemas?
-En EEUU hay ya hasta una ley, y aunque a España llegó más tarde, ahora se propone que las empresas establezcan sistemas de este tipo, de forma que para la empresa que lo haga, se exima de la culpa al directivo, pero donde no lo tengan, se le podrían pedir responsabilidades. Entonces, muchas empresas lo están aplicando. Claro, de momento todo se basa en la denuncia (whistleblowing), por ejemplo vía correo electrónico. Yo pido que se vaya un poco más allá: que se monitorice también. ¿Cómo? Pues por ejemplo a través del Big Data; no sólo de lo que la empresa tiene en la web sino de lo que se dice en los boletines oficiales, de todas las fuentes que se pueden rastrear… de forma que se pueda buscar todo tipo de información sobre cualquier empresa. Se está trabajando en ello.

-¿Y qué otros elementos forman parte de estos sistemas, además de las denuncias?
-Bueno, ahí entran también los códigos éticos, es la primera parte del sistema. Normalmente, hoy todos los hospitales tienen códigos éticos, de conducta y deontológicos, que forman un marco regulatorio. Lo que se salga de ese marco es lo que nos daría el algoritmo. Y luego están las auditorías éticas. Si la empresas lo hace bien, para generar confianza, una auditoría ética nos puede revelar potencialidades y déficits en materia ética. Y ver cómo mejorar, lo cual genera confianza. También están las memorias de responsabilidad, las líneas éticas… todo son pilares de este sistema, pero nos faltan dos patas: el Big Data o transformación digital (que incluye el Internet de las Cosas) y por otro lado, la participación de la sociedad civil.

-Es decir, que al final nos implica a todos.
-Pues sí, solo con poner una aplicación en la web no conseguimos nada, y a veces, el problema es que no participa la gente. Si la empresa pone unas líneas éticas porque de este modo la ley exime de culpa a los directivos ante un problema, pero luego no quiere aplicar su sistema, no forma a los trabajadores, no informa a todo el mundo… en definitiva si no hay una voluntad real, es mucho más difícil. ¿Qué falta aquí? La sociedad debe acceder a aplicaciones con el papel que tiene por ejemplo Glassdoor en Reino Unido. Allí le llaman el terror de la empresa: quien busca trabajo puede ver qué dice mucha gente de una empresa antes de entrar en ella, puesto que los trabajadores y extrabajadores la puntúan, y de ese modo existe transparencia. Y el trabajador puede decir a esta no me apunto, porque pagan mal, tarde, etc. Pero también hace falta formación y sensibilización. Un buen ejemplo en Castellón es UBE. Desde la UJI les hicimos la línea ética y llevamos 3 años trabajando con ellos, con cursos de formación y sensibilización del personal. La empresa está convencida de esta línea de trabajo y una buena prueba de ello es que en el primer año de funcionamiento hubo 5 alertas, denuncias éticas. Eso, a nivel nacional, es mucho. La mayoría de empresas en España reflejan en sus informes una o ninguna denuncia al año. Eso es muy mala señal, porque demuestra que no hay voluntad de aplicar las líneas éticas.

-La participación es clave, pues. 
-Claro. La tercera pata del sistema es la sociedad civil, su participación. Primero va la aplicación, luego la concienciación para que participen y finalmente, que todos los interesados participen. En el ámbito de la salud, los pacientes deben ser proactivos, querer saber. El papel de la sociedad en un sistema de monitorización es sencillamente brutal.

Fuente: CastellónPlaza