EPISODIO 5

La regulación y la vigilancia ciudadana para una IA justa

OTRAS FORMAS DE ESCUCHARLO

EPISODIO 5

La regulación y la vigilancia ciudadana para una IA justa

¿A qué intereses responde el modelo más extendido de desarrollo de la inteligencia artificial? ¿Pretende crear, realmente, herramientas que mejoren la vida de las personas? Las empresas están en el centro de este proceso, pero la ciudadanía no está dispuesta a ceder el protagonismo y se organiza.

00:00:06:01 – 00:00:41:23

Carlos Bajo Erro

En enero de 2021, el Gobierno de Países Bajos dimitió en bloque como consecuencia del escándalo provocado por el uso de un algoritmo en la vigilancia de los subsidios de apoyo familiar. SyRI, que era el nombre de la herramienta, incorporaba parámetros racistas para determinar la probabilidad de que un o una ciudadana cometiese fraude. ¡Vaya!, que los diseñadores del algoritmo partían de la base de que era más probable que intentases engañar al Estado solicitando una ayuda que no te corresponde si procedía de un origen concreto. Volcaron sus prejuicios racistas al algoritmo y la máquina hizo el trabajo.

 

00:00:42:00 – 00:01:01:00

Natalia Pereira Martín

Miles de familias fueron privadas del subsidio porque alguien consideró que era probable que su solicitud incluyese mentiras. Fueron lanzadas a un infierno administrativo y, sin subsidio, muchas de ellas incluso llegaron a perder a sus hijes. Después de un largo proceso de denuncias, el gobierno cayó por haber institucionalizado la discriminación.

 

00:01:01:02 – 00:01:39:21

Carlos Bajo Erro

Hace apenas unas semanas, Civio consiguió que el Tribunal Supremo del Estado español le diese la razón y obligase a la apertura del código de Bosco, la aplicación que se usa para determinar quién tiene derecho al bono social de la factura de electricidad y quién no. Desde SyRI hasta Bosco, el recorrido de las luchas de diferentes organizaciones de la sociedad civil para vigilar y fiscalizar las herramientas algorítmicas es muy larga. Y esa es solo una de las capas de los esfuerzos ciudadanos y cívicos para que la inteligencia artificial no sea discriminatoria, no aumente las injusticias o, directamente, vulnere derechos.

 

00:01:39:23 – 00:02:06:05

Natalia Pereira Martín

La sociedad civil, de hecho, está muy ocupada. Hay colectivos reclamando control del impacto ambiental de los centros de datos; exigiendo transparencia en las herramientas, que las propias administraciones han introducido en la gestión de servicios públicos, algunos de ellos, básicos; velando por que no se usen mecanismos que vulneran derechos en espacios de excepcionalidad, como son las fronteras; o peleando por el derecho a participar en los círculos de gobernanza de la inteligencia artificial.

 

00:02:06:07 – 00:02:36:13

Carlos Bajo Erro

La inteligencia artificial ha llegado cubierta de un halo de eficacia, de eficiencia y de infalibilidad, que se ha demostrado tan ciencia ficción como los robots humanoides. La preocupación por que estas herramientas no aumenten la discriminación ha acercado las posiciones de colectivos con diferentes inquietudes, desde asociaciones de consumidores y usuarias hasta organizaciones antirracistas, desde defensoras de derechos humanos hasta impulsoras del gobierno abierto, desde nuevos sindicatos hasta grupos de hackers cívicos.

 

00:02:36:15 – 00:02:55:07

Natalia Pereira Martín

A menudo, advertimos del riesgo que suponen los discursos que intentan humanizar la inteligencia artificial. Lo hemos hecho aquí, en este podcast. Seguramente porque la única manera aceptable de humanizar la inteligencia artificial sea no tratarla como si fuera humana, sino garantizar que respeta todas las dimensiones de las y los humanos.

 

00:02:55:09 – 00:03:46:02

Carlos Bajo Erro

Hoy, en este quinto y último episodio de la primera temporada, de “Mucho hype y pocas nueces”, Judith Membrives nos va a guiar para entender esta movilización de la sociedad civil para garantizar una inteligencia artificial justa, igualitaria y democrática.

 

00:03:18:05 – 00:03:39:20

Entradilla

Estás escuchando “Mucho hype y pocas nueces”. El podcast sobre Inteligencia artificial y desigualdades, impulsado por el Ayuntamiento de Barcelona y Oxfam Intermón, con la colaboración de Ethic. Una serie de conversaciones con expertas, dentro del proyecto de Justicia Digital Global, para alimentar, con una mirada crítica, los debates en torno a la tecnología.

 

00:03:46:04 – 00:03:47:21

Carlos Bajo Erro

Soy Carlos Bajo Erro.

 

00:03:47:23 – 00:03:50:05

Natalia Pereira Martín

Y yo soy Natalia Pereira Martín.

 

00:03:50:07 – 00:04:00:17

Carlos Bajo Erro

Y este es el quinto y último episodio de la serie de podcast “Mucho hype y pocas nueces”. Lo hemos titulado “La regulación y la vigilancia ciudadana para una IA justa”.

 

00:04:00:19 – 00:04:11:13

Natalia Pereira Martín

Y estamos felices de contar hoy con Judith Membrives, a quien admiramos profundamente y con que tenemos la suerte de coincidir a menudo en Barcelona o Madrid o en otros lados. Buenas tardes, Judith. Muchas gracias por estar aquí.

 

00:04:11:19 – 00:04:19:03

Judith Membrives

Buenas tardes. Muchas gracias a vosotres por invitarme a estar aquí. Estoy muy, muy contente de estar aquí.

 

00:04:19:05 – 00:04:57:03

Carlos Bajo Erro

Como intense activiste, Judith tiene diferentes sombreros y un perfil multidimensional. Formade en filosofía, comunicación y diseño multimedia, se ha ido orientando hacia el impacto de la innovación tecnológica en las personas, desde la perspectiva ética, cognitiva y social. Es le responsable de la línea de trabajo sobre Digitalización y Derechos Humanos de LaFede.cat, la federación de entidades de Justicia Global de Catalunya, y también es une de les fundadores de Algorigths, además de doctorande en la Universitat Oberta de Catalunya, sobre estudios de datos críticos e inteligencia artificial.

 

00:04:57:05 – 00:05:11:17

Carlos Bajo Erro

Judith, en el enfoque del desarrollo de la inteligencia artificial, entre los intereses de las empresas y los de la ciudadanía, da la sensación de que vamos perdiendo, ¿verdad?

 

00:05:11:19 – 00:05:42:07

Judith Membrives

Sí. Es como un poco crudo dicho así, ¿no? Pero sí. Si que es cierto que, al final, hay que entender que la inteligencia artificial -no me acuerdo que investigador español era.. solo me sale su nickname y no su nombre… sí, Karlos G. Liberal-, habla de que la inteligencia artificial es una ideología, no una tecnología.

 

00:05:42:07 – 00:06:17:20

Judith Membrives

Y yo estoy bastante, bastante de acuerdo con esta aproximación. Porque, al final, desde los estudios críticos de los datos y de la IA, no entendemos la IA como una herramienta o como una tecnología, sin más; sino como un sistema sociotécnico, que está imbricado en relaciones sociales, que, por lo tanto, está atravesada por relaciones de poder, por diferentes niveles de acceso, no solo al hecho de usarla o no usarla, sino al hecho de desarrollarla o no desarrollarla y de decidir cómo se desarrolla.

 

00:06:17:22 – 00:06:52:00

Judith Membrives

Entonces, es obvio que los ciudadanos, las ciudadanas, les ciudadanes, no estamos ahí. Pero tampoco estábamos ahí cuando se creó Internet. Entonces, creo que, aunque es cierto que ahora mismo, al menos yo, estoy en un contexto en el que creo que vamos perdiendo bastante; sí que creo que hay margen para reapropiarnos de partes o de las partes positivas que nos puede traer esta aproximación tecnológica.

 

00:06:52:02 – 00:07:28:10

Judith Membrives

Entonces, hay que entender que, al final, no estamos hablando de una tecnología, sino de un paradigma… o, más que de un paradigma, de un sistema que está, además, dentro de un paradigma en el que la innovación está por encima de todo -hay que innovar o morir-. Este discurso, tan propio de Silicon Valley, pero que a la vez es heredero de la de la Ilustración, está determinando si se regula, si no se regula, cuándo se regula y por qué se regula.

 

00:07:28:12 – 00:08:02:07

Judith Membrives

Y, justamente ahora, además, con el contexto geopolítico que tenemos -porque creo que en el caso concreto de la inteligencia artificial es muy importante estar mirando todo el rato al contexto geopolítico-, las pocas salvaguardas que habíamos conseguido incorporar, a nivel de regulación, -que entiendo que ya hablaremos de esto más adelante-, ahora el lobby de las grandes tecnológicas está consiguiendo que, incluso, Europa tire para atrás, también con este discurso de la competitividad, del rearme…

 

00:08:02:09 – 00:08:29:20

Judith Membrives

Por eso la primera idea que solemos lanzar siempre, es que no podemos pensar en la inteligencia artificial como una herramienta sin más. Y que hay que pensarlo más desde una perspectiva, de paradigma de posibilidad: ¿Qué es lo que está haciendo ahora? ¿A qué cosas está afectando en la sociedad? Y, ¿cómo la podríamos imaginar diferente?

 

00:08:29:40 – 00:08:54:21

Natalia Pereira Martín

Tenemos una pregunta para ti que es: ¿por qué está siendo necesario que las organizaciones desde la sociedad civil -también donde imagino que es tu lugar de enunciación aquí hoy- estén vigilando los avances y las implantaciones de la IA? O, dicho de otra manera, ¿cuáles sientes que son las amenazas a las que la sociedad civil está poniendo luz y dando respuesta en lugar de quizás la industria o los estados?

 

00:08:54:23 – 00:09:33:16

Judith Membrives

Vale. Creo que con la inteligencia artificial podemos remendar algo o arreglar algo que fue el hecho de que durante el Reglamento de Protección de Datos, de hace diez años, no estuvimos, las organizaciones de sociedad civil. O las que estuvieron fueron las que, tradicionalmente, trabajaban temas de derechos digitales que, en aquel momento, se enfocaba mucho a temas de privacidad, de anonimato, de lo que sería el derecho digital clásico y no el derecho humano en el ámbito digital.

 

00:09:33:16 – 00:10:08:06

Judith Membrives

Que no me gusta separar los ámbitos. No soy de las personas que consideran que hay un mundo digital y hay un mundo real. El mundo es mundo, ¿no?, y ahí pasan cosas. Pero sí que creo que ha habido una evolución en relación al concepto de derecho digital o que, al menos, las organizaciones que, clásicamente, se han enfocado más a derechos digitales, ahora han ampliado un poco la mirada a otro tipo de afectaciones, más allá de lo que sería dentro del del marco normativo del derecho digital.

 

00:10:08:08 – 00:10:47:07

Judith Membrives

Entonces, creo que, porque la sociedad civil organizada, que defiende derechos humanos, que es antirracista, que es feminista, no estuvo en Europa, muy presente en los debates sobre el Reglamento de Protección de Datos y luego hemos aprendido la importancia que tienen estos datos a la hora de perfilarnos para vendernos cosas, pero también para detenernos por la calle, entender qué se nos muestra y qué no se nos muestra, creo que de eso debemos aprender para que no nos pase lo mismo con la inteligencia artificial.

 

00:10:47:09 – 00:11:24:00

Judith Membrives

La respuesta rápida y corta es que quién sabe de derechos humanos, quién sabe de proteger a colectivos vulnerables son, o los propios colectivos vulnerabilizados, o las personas y las organizaciones que han estado trabajando en esto. Porque, al principio, cuando empezamos, hace cuatro o cinco años, a intentar introducirnos en estos espacios de gobernanza, nos decían que nosotras no teníamos nada que decir porque esto iba de tecnología y que la tecnología era una cosa y los derechos de los colectivos racializados, por ejemplo, eran otras, ¿no?

 

00:11:24:03 – 00:11:47:05

Judith Membrives

Se seguía manteniendo esta separación del mundo digital y el mundo real. Y, también, había mucho esta idea de que la tecnología es neutra y por qué vamos a tener que plantear que la gente que defiende derechos esté planteando tecnología, cuando la tecnología es neutra, no va a vulnerar nada.

 

00:11:47:05 – 00:11:48:05

Carlos Bajo Erro

Es una herramienta solo…

 

00:11:48:05 – 00:11:54:16

Judith Membrives

Es una herramienta, ¿no? El coche es una herramienta. Bueno, sí, pero el coche ha determinado como es la construcción de las ciudades…

 

00:11:54:16 – 00:11:56:03

Carlos Bajo Erro

El cuchillo no es ni bueno ni malo…

 

00:11:56:03 – 00:12:29:18

Judith Membrives

¡Exacto! Entonces, creo que por eso tenemos que estar. Porque, al final, si seguimos con esta idea de ideología que comentaba Karlos G. Liberal, al final, es una manera de ordenar el mundo, o de incidir en el mundo, más que de ordenarlo. Y luego, porque creo que ahora tenemos suficiente experiencia como para saber que, sobre todo, todo lo que es la economía de los datos, que es la que sustenta, al final, toda esta tecnología, es peligrosa.

 

00:12:29:20 – 00:13:02:09

Judith Membrives

Es peligrosa para el bienestar de las personas de todo tipo; es peligroso para, incluso, la salud de nuestras democracias. Y luego también está el ¿por qué no? Si la tecnología es algo que desarrollamos los humanos, porque solo las personas que estudian ingeniería tienen que ser quienes digan… si lo vamos a acabar utilizando prácticamente todes… Pero bueno, principalmente, porque tenemos evidencia de que se vulneran derechos con esas tecnologías.

 

00:13:02:11 – 00:13:29:17

Carlos Bajo Erro

Pero de todas formas, hablando de esos riesgos y de las garantías, sobre todo, ¿no resulta extraño que las empresas, que las administraciones estén abrazando la inteligencia artificial de una manera acrítica y tenga que ser la sociedad civil la que advierte sobre los riesgos? Es decir, quizá, ¿no se podrían pedir más garantías a otras instancias, más allá de la sociedad civil?

 

00:13:29:19 – 00:14:18:07

Judith Membrives

Sí, es extraño, pero es un poco lo que ha ido pasando, tradicionalmente, en este sistema capitalista en el que vivimos. Es decir, hasta que las organizaciones fuertes no pudieron contrarrestar el lobby de las tabacaleras, por ejemplo, el tabaco era algo totalmente aceptable en todos lados. Es cierto que mi perspectiva, a veces, es un poco más radical que la de otres compañeres, porque yo, por ejemplo, no tengo claro si puede existir inteligencia artificial coherente con la justicia global y que respete los derechos fundamentales y los derechos humanos. Bueno, me inclino más por el no, que por el sí.

 

00:14:18:07 – 00:14:38:16

Judith Membrives

Pero creo que, al final, lo que estamos viviendo es un poco lo que ya hemos ido viviendo con todas las innovaciones tecnológicas. Primero, una industria que está muy, muy, muy especializada en vender humo, no en vender productos, porque al final la industria de la innovación tecnológica lo que vende todo el rato son promesas.

 

00:14:38:16 – 00:15:13:01

Judith Membrives

Yo siempre pongo el mismo ejemplo. A mí me prometieron que con la digitalización iba a tener mucho más tiempo para pensar y para ser una persona creativa y tal… Y, de momento, no está siendo así. Al contrario. Me paso el día rellenando doodles para encontrar un hueco para hacer una reunión; o respondiendo correos que en una conversación hubiese sido mucho más fácil; o rellenando formularios para autorizar a mis hijes para ir a no sé dónde, cuando antes, a lo mejor, era simplemente una firmita y ya está, ¿no?

 

00:15:13:01 – 00:16:02:06

Judith Membrives

La carga cognitiva -y ahí es donde entra la vertiente, también, del diseño multimedia-, que implica a todo lo que hacemos a nivel digital, en realidad, nos está restando capacidad para pensar. Entonces, no tengo muy claro que las intenciones sean, de entrada, otras que no sea seguir acumulando poder económico y social, básicamente. Y esto también lo digo porque, antes de trabajar en el mundo de la sociedad civil, trabajaba en una consultora tecnológica y trabajé también asesorando startups. Y la gran mayoría de modelos de negocio, no son orientados a hacer la vida de las personas más fáciles, dentro del ámbito digital, sobre todo, sino a sacar el máximo de datos porque es lo que luego se puede mercantilizar.

 

00:16:02:08 – 00:16:36:04

Judith Membrives

Entonces, creo que es algo que ya hemos vivido con otras industrias, pero que en esta, por algunas cosas más de su propia naturaleza, es mucho más evidente. Y, también creo que la tecnología siempre ha tenido, en general, este halo de magia, no como de que son solo las personas muy expertas, pueden entenderla, controlarla, dominarla…

 

00:16:36:06 – 00:17:21:12

Judith Membrives

Y, también, tiene este componente más fancy, ¿no?, más moderna. Entonces esto hace, por un lado, que las administraciones digan “uy, pues sí, maravilloso, vamos a contratar un algoritmo que no sabemos, ni cómo está hecho, ni qué variables está tomando, seguro, con la excusa de que vamos a ahorrar dinero porque cómo vamos a captar quién está haciendo trampas, en el caso de SyRI, pues vamos a ahorrar dinero”. Esa es la excusa. Pero, generalmente, viene de una promesa muy inflada por parte de una tecnológica. Y, luego, de un abuso del desconocimiento o de una necesidad de querer hacerse el moderno, también.

 

00:17:21:18 – 00:17:47:10

Natalia Pereira Martín

Además, hasta el punto de que dentro de la industria ni siquiera están haciendo su trabajo y la sociedad civil está teniendo que tapar los agujeros de detectar los riesgos y los malos funcionamientos, como es el caso de SyRI, que está teniendo su propio algoritmo. Tu producto tiene un defecto y no estás siendo tú quien esté dando respuesta y ni siquiera el cliente, en este caso administraciones públicas, sino que sociedad civil, quien está teniendo que mirar ahí.

 

00:17:47:12 – 00:18:15:19

Judith Membrives

Sí, hacer de watchdog. Tanto el caso de SyRI, como el caso de Bosco para mí son interesantes, porque no son tecnología punta, son muy rudimentarios. Yo siempre hago la la comparativa, que sé que es una comparativa bastante banal y bastante simplificada, pero para que lo entienda la gente de a pie, por decirlo de alguna manera, de que es como los test esos que teníamos en el Súper Pop, en su momento, ¿no?, de si mayoría “A” eres no sé qué, y si mayoría “B”… Pues es un poco esto.

 

00:18:15:19 – 00:18:30:19

Judith Membrives

No son, ni tan siquiera, tecnologías que estén utilizando una gran capacidad de procesamiento de datos para poder hacer una predicción, más o menos, certera. Sino que son, bueno, pues eso…

 

00:18:30:21 – 00:18:34:18

Carlos Bajo Erro

Ni entrarían en la definición de inteligencia artificial de muchas de las regulaciones.

 

00:18:34:20 – 00:18:39:00

Judith Membrives

Exacto, en Europa no sería considerado. Sí son herramientas algorítmicas.

 

00:18:39:02 – 00:19:04:21

Carlos Bajo Erro

De todas formas, hablamos del enfoque de la empresa, del enfoque de la administración. Pero también vemos como hay muchos espacios de la sociedad civil que abrazan con entusiasmo la llegada de la inteligencia artificial. Precisamente, con esas promesas y, sobre todo, con esas promesas de ahorrar costes… en un espacio, el de la sociedad civil, que siempre tiene muchas limitaciones.

 

00:19:04:23 – 00:19:20:11

Carlos Bajo Erro

Entonces, a estos espacios que, en teoría, están en están nuestro lado, digamos, ¿cómo les explicamos que, quizás, el problema no es cómo funciona la herramienta, sino que el problema es mucho más de marco?

 

00:19:20:13 – 00:19:52:22

Judith Membrives

Bueno. No sé, exactamente, cómo les explicamos, porque realmente aquí entraríamos, otra vez, también en el tema de las narrativas. La narrativa acerca del hype alrededor de la IA es muy potente y, realmente, hasta que no consigues o, al menos, mi experiencia es que hasta que no he conseguido tener un espacio de tres horas de explicar el contexto, el marco en el que se está desarrollando esta tecnología y, luego, “ahora si quieres, vamos a ver cómo funciona”.

 

00:19:52:24 – 00:20:12:12

Judith Membrives

Porque estoy recibiendo muchas peticiones de “¿nos puedes hacer un curso de cómo utilizar éticamente, -que es una palabra que, además, yo no utilizo nunca, generalmente, de uso ético-, para usar la IA generativa, porque queramos usarla, pero sabemos que hay algunos problemas, pero tal…”.

 

00:20:12:14 – 00:20:39:12

Judith Membrives

En mi caso, yo tengo una formación planteada en la que estamos una hora y media entendiendo cuál es el contexto de desarrollo de esta tecnología, cuáles son los impactos desde una perspectiva ecológica… Bueno, un poco, pues, a partir de ahora no necesitaré hacerlo porque podré compartir este podcast. Y, entonces, a partir de aquí, es cuando, con estas organizaciones, hemos podido empezar a construir…

 

00:20:39:12 – 00:21:14:14

Judith Membrives

Obviamente, yo no puedo decirte “no la uses”, ¿no? Porque, al final, el contexto en el que estamos es propicio para que todos la usemos, incluida yo. Pero, al menos, que cuando te vayas a plantear unas políticas de uso, que es lo que están haciendo muchas de las organizaciones, pues te las plantees desde una visión lo más crítica posible. Y no desde la perspectiva solo del sesgo, por ejemplo, -que es donde se está poniendo mucho el foco-, del sesgo que reproduce. O, ahora también, empieza a ver la batalla sobre el agua, el agua que consume.

 

00:21:14:14 – 00:21:39:02

Judith Membrives

Por ejemplo, me he encontrado ya en varias formaciones, que la persona vegana que hay en el equipo me dice “bueno, comer hamburguesas también gasta mucha agua, ¿no?” Sí, ok, también. Y a lo mejor, también abogo por la reducción del consumo de carne ¿no? Pero que no va de si tienes que elegir entre comer de la hamburguesa o utilizar ChatGPT.

 

00:21:39:04 – 00:22:00:12

Judith Membrives

Sino que va de: si lo vas a usar, al menos que seas consciente de todo el impacto y no solo lo ecológico, también qué le está haciendo a tu cerebro esto. Porque ahora ya empezamos a tener investigaciones sobre qué pasa cuando vas delegando todo y al final… Yo siempre explico lo mismo. A mí me preocupa mucho el mundo en el que van a vivir mis hijes.

 

00:22:00:12 – 00:22:41:11

Judith Membrives

A mí el mundo en el que vivo yo ya no me… Y creo, realmente, que si todo el mundo empieza a utilizar inteligencia artificial generativa sin ton ni son, sin criterios y sin pensamiento crítico, es que no hay tanto planeta. “No hay planeta pa’tanta IA”. Bueno, pues de la misma manera que hay personas que se replantean el uso del coche, o volar menos, etc…, creo que hay que hacer esta reflexión con la IA generativa y que cuanto antes la hagamos mejor, porque cuando ya todo el mundo esté acostumbrado a usarla, pues ya será tarde.

 

00:22:41:13 – 00:23:00:12

Natalia Pereira Martín

Me acuerdo con Paola Ricarte, en un episodio anterior, hablábamos de cómo la gente ha perdido la capacidad de moverse del espacio, porque se ha vuelto dependiente de las aplicaciones, además muy concretas, de algunas aplicaciones para moverse en el espacio. Me recuerda lo que dices. Y me encanta la frase de “no hay planeta para tanta IA”. Ahí está, la vamos a enmarcar, nos la vamos a poner ahí.

 

00:23:00:12 – 00:23:28:01

Natalia Pereira Martín

Queríamos ponértelo todavía más difícil y llevarlo a la sociedad, en general, la ciudadanía. Si ya es difícil, dentro de las organizaciones de la sociedad civil… además, también, con esta sensación de carrera -que en el podcast hemos hablado en otras ocasiones-, que yo creo que todas, todas las personas y todas las organizaciones se sienten…, los estados y a nivel geopolítico ya es otro nivel y otra capa, pero se siente que si no se quedarán atrás y se quedarán obsoletas.

 

00:23:28:03 – 00:23:39:16

Natalia Pereira Martín

Llevando la pregunta que te hacía a Carlos, a la sociedad en general, ¿crees que la sociedad es consciente de las ramificaciones, sobre todo, justicia o injusticia global que tiene el despliegue de la IA?

 

00:23:39:19 – 00:24:10:15

Judith Membrives

No, no. Aparte de dar formaciones a lo que serían ONG clásicas, también estoy dando formaciones… bueno, pues como mi pueblo saben que hablo de IA, pues me han pedido formaciones en algunos centros educativos. Y lo primero que me sorprende es que la gente no es consciente, ni tan siquiera de la materialidad de Internet, ya no de la IA, sino de Internet. La nube. La nube. No voy a entrar, porque creo que ya habéis entrado en otros podcast.

 

00:24:10:15 – 00:24:11:15

Natalia Pereira Martín

El éxito narrativo de la nube.

 

00:24:11:17 – 00:24:36:23

Judith Membrives

Sí, exacto. Ya partimos de la base de que la gente está utilizando herramientas digitales, constantemente, sin ser consciente de lo que eso está provocando a nivel ecológico y mucho menos, plantearse que puede haber personas dentro de la cadena de distribución, vamos a decirlo, de ese producto.

 

00:24:36:24 – 00:25:18:01

Judith Membrives

Cuando hablo de las de las consecuencias materiales o, perdón, ecológicas todo el mundo alucina. Pero cuando hablo de las consecuencias en según qué cuerpos como los de los data workers, los etiquetadores y limpiadores de datos, claro, la gente no tiene ni idea de cómo funciona la tecnología. Y creo que esa ha sido la gran batalla que hemos perdido en relación a la industria. La industria se ha preocupado de hacértelo todo extremadamente fácil, integrado y que tú ni tan siquiera te plantees cómo funciona un ordenador, de qué piezas se compone un ordenador.

 

00:25:18:03 – 00:25:47:22

Judith Membrives

Pues si ya resulta problemático que no lo sepamos en algo que sí que tiene un cuerpo físico. Imagínate en algo que no, que es una interfaz. Que es que no sabemos, ni tan siquiera qué hay detrás de todo esto. Lo que sí que me sorprendió un poco cuando he dado formación a médicos -al Departamento de Salud de la Generalitat- y he dado formación a adolescentes. Y me he sorprendido de los adolescentes que tienen súper claro que la IA generativa se inventa las cosas, que no es una herramienta fiable… más claro que los médicos.

 

00:26:01:24 – 00:26:02:18

Natalia Pereira Martín

Uf. Qué peligroso.

 

00:26:02:19 – 00:26:29:12

Judith Membrives

¿No? Entonces, no sé, tengo una pequeña esperanza por las nuevas generaciones de que, al final, viven en un mundo que ha estado ya de entrada tan mediado por las nuevas tecnologías y por todo esto, como que les… Tengo la esperanza, -no es, no es ni la intuición, ni es una opinión, es una esperanza-, de que les afecte menos, por decirlo de alguna manera.

 

00:26:29:12 – 00:26:49:14

Judith Membrives

Pero que hay afectación a nivel cognitivo es evidente y creo que la gente también, cuanto más se usa, más gente se da cuenta de que hay cosas que son un bluff. Pero, sí que me parece peligroso la deriva del uso a la que estamos yendo.

 

00:26:49:15 – 00:27:07:21

Judith Membrives

Que dentro de la Administración, dentro de nuestras organizaciones, se plantea desde una perspectiva de productividad, que aquí puedes cuestionarlo desde la perspectiva de que nosotros no queremos entrar en esta rueda de la competitividad empresarial, etc., pero al final es el sistema en el que vives.

 

00:27:07:21 – 00:27:43:09

Judith Membrives

Pero a nivel personal o a nivel de sociedad se está utilizando -es el primer uso, ya, este año-, como compañía, como consejero, como pareja, incluso… Y eso es lo que a mí esa parte me preocupa muchísimo más, porque realmente si ya hay quien cree que con las redes sociales hemos perdido la capacidad, a veces, de relacionarnos entre nosotras, que yo por ejemplo, no estoy de acuerdo con esto porque al final te estás relacionando con otras personas, pero es que aquí ya, directamente, no te estás relacionando con otra persona.

 

00:27:43:10 – 00:27:59:07

Judith Membrives

Me preocupa bastante más a nivel de sociedad lo que puede pasar si estamos todos conectados con algo que, al final, es como un filtro burbuja, en el que realmente no interactúas con nadie más.

 

00:27:59:09 – 00:28:11:09

Carlos Bajo Erro

Y el otro día leía un informe que decía, no sé, se si era uno o una de cada cinco adolescentes estadounidenses había mantenido una relación afectiva con un chatbot…

 

00:28:11:15 – 00:28:13:06

Judith Membrives

Esto.

 

00:28:13:08 – 00:28:17:17

Carlos Bajo Erro

O sea que perspectiva de futuro un poco preocupante, ¿no?

 

00:28:17:19 – 00:28:41:13

Judith Membrives

Sí, no sé. A lo mejor se lo acabarán tomando… Al final, yo creo que habrá de todo, que hay personas que, a lo mejor, ya están en una situación de vulnerabilidad, como el chico que se suicidó, en Estados Unidos -creo que fue, también-, que ya están en una situación de vulnerabilidad y que esto, obviamente, explota esta situación de vulnerabilidad, porque al final la economía de la atención es la que manda aquí.

 

00:28:41:15 – 00:29:06:19

Judith Membrives

ChatGPT no quiere darte la mejor respuesta, quiere que pases el máximo de tiempo posible contándole cosas, por eso está todo el rato intentando satisfacer, aunque no sepa la respuesta correcta. Y cada vez que termina te dice otra opción, ¿no? “Lo he redactado así. ¿Quieres que te lo haga en un tono más así o más asá? ¿Que te lo adapte para no sé qué?”. Está todo el rato diciendo “no me dejes”, básicamente.

 

00:29:06:19 – 00:29:44:15

Judith Membrives

No sé, seguramente, en esto estoy bastante sesgade porque mis hijes son bastante críticos con esto y tienen muy claro que esto es un juguete más para ellos, ¿no? Entonces, quiero pensar que hay parte de la juventud que no lo tiene tan mitificado como lo tenemos los adultos, pero es cierto que es algo que ahora mismo está siendo como bastante complicado… Claro, es que es muy difícil de explicar qué es, cómo funciona, por qué es problemático.

 

00:29:44:17 – 00:29:56:22

Judith Membrives

No puedes hacerlo en una conversación de cinco minutos y los otros en cinco minutos te dicen que descríbete los correos, que puedes hablar el idioma que quieras y que, además, puedes tener una relación con alguien que te va a decir que sí a todo.

 

00:29:56:23 – 00:30:01:11

Carlos Bajo Erro

La competencia es desigual.

 

00:30:01:12 – 00:30:04:05

Judith Membrives

Claro. ¿Es que cómo compites contra eso?

 

00:30:04:11 – 00:30:29:05

Carlos Bajo Erro

Volviendo al marco de la de la regulación, y tú antes planteabas lo conflictivo de esta idea de uso ético y ese tipo de cosas, que también seguramente es una de las grandes victorias de la industria que ha conseguido dejar a un lado el uso legal o de derechos y ha impuesto esta idea de ético. Incluso, hay algunos espacios en los que existían regulaciones previas.

 

00:30:29:07 – 00:31:02:10

Carlos Bajo Erro

No sé, puedo pensar en el derecho a la intimidad, en cuestiones laborales, por ejemplo, en el copyright, en toda una serie de ámbitos, en los que existían regulaciones previas, pero, aparentemente, parece que la IA se despliega en una especie de vacío legal, ¿no? Y se reclaman regulaciones explícitas para la IA. ¿A pesar de que ya había marcos previos? ¿Por qué? ¿Por qué crees que se produce esa situación? O, ¿a dónde nos conduce esa situación?

 

00:31:02:12 – 00:31:29:05

Judith Membrives

Creo que se produce por un poco la propia genealogía de la IA. La IA, al final, se desarrolla partiendo de esta máxima o de esta idea -por eso yo siempre hablo, también, de corriente de pensamiento, ¿no?-, de que es posible emular el razonamiento humano en una máquina. Que esto es algo que, ya de entrada, desde mi lugar de enunciación ponemos bastante en duda, pero bueno.

 

00:31:29:05 – 00:32:01:05

Judith Membrives

Entonces, partiendo de esa promesa inicial de la IA. Más o menos, todas estamos familiarizadas con conceptos como la superinteligencia, la singularidad, que es el momento en el que la IA, de repente, se dará cuenta de que existe y decidirá qué hace con nosotros, como humanidad. Claro, es que estas narrativas que, a lo mejor, a la gente de a pie le pueden parecer conspiranoicas o cuentos chinos o lo que sea.

 

00:32:01:05 – 00:32:02:05

Natalia Pereira Martín

O fascinantes.

 

00:32:02:05 – 00:32:38:05

Judith Membrives

O fascinantes, ¿no? O ciencia ficción pura… Son las ideologías que están marcando el desarrollo y, por lo tanto, también son las que están marcando la regulación. Porque la regulación, al final, viene muy marcada por el lobby. Entonces, yo estoy de acuerdo en que, seguramente, no era necesario desplegar regulación propia o específica para la IA, tal y como lo ha hecho Europa, sino adaptar la regulación ya existente a una nueva forma más y a lo mejor desplegar regulación específica para ciertos usos o aplicaciones concretas de la IA.

 

00:32:38:05 – 00:32:53:12

Judith Membrives

Porque, precisamente, el problema que tuvimos con el Reglamento de Inteligencia Artificial cuando se empezó a plantear. Bueno, primero se hizo todo esto de la IA, “trustworthy”…

 

00:32:53:17 – 00:32:54:06

Carlos Bajo Erro

Fiable. O “confiable” más bien.

 

00:32:54:06 – 00:33:42:05

Judith Membrives

Confiable. Exacto. Ese marco. Pero, cuando se empezó a hacer reglamento puro y duro, la IA generativa no estaba y bueno, los legisladores no la esperaban. El resto sí que sabíamos que en algún momento iba a saltar. Y, ¿qué pasó? Que cuando se abrió el modelo comercial de GPT, el primer ChatGPT en 2022 se estaba a punto de terminar la negociación sobre el reglamento de la IA y no incluía ni una frase que pudiera poner orden jurídico a esa nueva herramienta o interfaz que había salido. O sea, ya nació bastante limitada.

 

00:33:42:07 – 00:34:12:14

Judith Membrives

Y, luego, lo que estamos viendo ahora con toda esta estrategia de desregulación que está iniciando la Unión Europea o la Comisión Europea, perdón, es que el reglamento de la IA y esta narrativa de que la IA nos puede ayudar a ser más competentes, a ganar soberanía, porque ahora también tenemos el problema de la soberanía, no porque tenemos a Trump de jefazo en Estados Unidos.

 

00:34:12:16 – 00:34:37:12

Judith Membrives

Está abriendo la puerta a que se abran otras regulaciones, ya no solamente esta. Se está planteando que, a lo mejor, el Reglamento de Protección de Datos también habría que simplificarlo porque necesitamos tener acceso a los datos para poder entrenar inteligencia artificial, etc. Luego, lo que han sabido hacer muy bien, también, siempre, desde el sector tecnológico, es apropiarse del conocimiento abierto, del conocimiento compartido.

 

00:34:37:12 – 00:35:08:14

Judith Membrives

Y luego también utilizar la piratería, siempre bajo esta excepción de la investigación, ¿no? “No, yo puedo coger y robar toda la base de datos de no sé qué revista académica porque estoy haciendo investigación académica, para desarrollar esto”. Bueno, ya, pero tú vas a acabar desarrollando un producto, para que yo acabe pagándote, para poder consultar cosas de mis papers que están publicadas…

 

00:35:08:14 – 00:35:31:12

Judith Membrives

Es esta parte depredadora. La pregunta no me acuerdo, exactamente, como era… Ah sí la regulación. Yo creo que ahí es que el lobby lo hizo muy bien. Bueno, no solo lo hizo muy bien, es que no tenemos dinero para competir contra ellos, básicamente.

 

00:35:31:14 – 00:36:04:23

Natalia Pereira Martín

Bueno, has mencionado… Vamos a volver a “desregularización” y a este escenario, y además con Cecilia Rikap hablábamos justo del capitalismo de monopolio intelectual, que es lo que acabas de explicar fenomenal. Has dicho lobby tres veces. Queríamos profundizar. Ya has puesto el marco de la AI Act o el Reglamento de Inteligencia Artificial. Si nos quieres contar un poco más de cómo fue tu experiencia en todo el proceso de incidencia ahí; la valoración de la regulación final; y, por supuesto, sobre todo, queríamos preguntarte por el lobby, ya dicho tres veces…

 

00:36:05:00 – 00:36:06:19

Carlos Bajo Erro

Un poco de salseo. ¿Cómo es el lobby?

 

00:36:06:21 – 00:36:08:07

Natalia Pereira Martín

Sí, un poco del chisme de qué había pasado.

 

00:36:08:09 – 00:36:41:23

Judith Membrives

A ver yo el salseo no lo tengo porque no estoy en Bruselas, gracias, por no estar en Bruselas, también lo digo. Pero bueno, yo lo viví bastante mal. Estuve a punto de irme a hacer pan… porque, realmente, fue claramente un David contra Goliat. Conseguimos rascar alguna cosa que, finalmente, se acabó prácticamente o va a acabar ahora, siendo eliminada.

 

00:36:42:00 – 00:37:40:11

Judith Membrives

Pero pasó una cosa que sí que me parece interesante destacar. Bueno, yo no tenía ni idea de cómo funcionaba un proceso de creación de una legislación nueva a nivel europeo, o sea, me lo empollé todo para para este proceso. Entonces, no sabía que había esto que se llaman los trílogos, que es que una vez ya, tanto Comisión, como Parlamento Europeo, han votado su postura final en relación a esa ley concreta, se juntan para el “merch”, ¿no? “Yo puedo quitar hasta aquí, tú quitas hasta aquí, etc.”. Y, esto, que además me parece fascinante que tengamos tan normalizado, que es un proceso súper opaco. No hay actas de estas reuniones. Son a puerta cerrada. No se sabe nada de lo que pasa en estas reuniones.

 

00:37:40:13 – 00:37:41:07

Carlos Bajo Erro

Puro regateo.

 

00:37:41:09 – 00:38:33:16

Judith Membrives

Es puro regateo. Creo, vaya, porque no he estado dentro, pero no por lo que me ha llegado. Y el 6 de diciembre del 2023, me acuerdo porque yo estaba en un campeonato de básquet, o sea que yo estaba siguiendo todo esto -claro, es festivo aquí-, en un polideportivo. Sí que se empezaron a filtrar cosas de lo que estaban intentando cargarse, de la posición del Europarlamento, que era con la que estábamos más a gusto, desde la sociedad civil, porque, por ejemplo, se pedía la prohibición absoluta del reconocimiento biométrico, del reconocimiento de emociones, etc. Y bueno, desde dentro, alguien empezó a filtrarlo.

 

00:38:33:16 – 00:39:14:11

Judith Membrives

Pero, luego supimos que había prensa dentro también. En ese momento, España era presidenta de la Comisión Europea y, bueno, había como, parece -no lo sé, porque no estoy dentro de la cabeza de los que nos gobiernan-, pero sí que yo vi que había mucho interés de posicionarse a nivel europeo por parte de España como… y esto es algo que durante el 2023 se vio claro, que se fueron lanzando cosas, que si la AESIA, la Agencia Española de Supervisión de Datos, que si el sandbox… se fueron lanzando muchas cosas, que luego ninguna acabó siendo una realidad 100% o empiezan ahora a desarrollarse.

 

00:39:14:13 – 00:39:47:02

Judith Membrives

Luego nos enteramos que, a pesar de que en esas reuniones no puede haber nadie de fuera, en las salas de espera sí que había gente de grandes empresas tecnológicas que todos conocemos. Todas las empresas que se os pasen por la cabeza cuando digo “grande” y “tecnológica”, pues esos. Estamos hablando de que estos lobbies invitan a desayunar, a cenar, a comer cada día a la gente de la Comisión, a los europarlamentarios…

 

00:39:47:04 – 00:40:12:15

Judith Membrives

Estamos hablando de que estas empresas luego vienen y nos prometen, por ejemplo, en España, no sé cuántos puestos de trabajo por poner un centro de datos… Entonces, claro, no es un reglamento, es un artefacto que articula muchas más cosas. Y, pues nada, 30 organizaciones, ahí diciendo queremos derechos humanos…

 

00:40:12:15 – 00:40:33:22

Judith Membrives

Otra cosa que antes has dicho “esto ha sido un triunfo de la industria”. Otra cosa que yo creo que ha sido un triunfo de la industria y, por ejemplo, fui a dar clase al grado de IA de la Autónoma y me di cuenta de lo problemático que era: Es que ahora parece que hay como un derecho a innovar, que pasa por encima de todos los derechos.

 

00:40:33:24 – 00:40:59:11

Judith Membrives

Bueno, pues que si yo tengo el derecho a desarrollar una tecnología que pueda hacer esto, aunque esto que haga esté mal. ¿Quién eres tú para venirme a decir que no tengo que desarrollar eso porque está mal, no? Y entonces han planteado esta dicotomía de regulación o derechos, perdón, versus innovación, que es una dicotomía totalmente falsa.

 

00:40:59:11 – 00:41:14:19

Judith Membrives

No puede haber binarismo entre innovación y derecho. Si tú innovación no respeta derechos, es que no, pues es que no es innovación. Porque innovar tiene que ser dentro de los marcos que nos que nos hemos establecido todos para vivir en sociedad.

 

00:41:14:21 – 00:41:24:16

Carlos Bajo Erro

En realidad, es una derivada más de ese discurso, no de “si pones límites, si regulas, te vas a quedar atrás”.

 

00:41:24:18 – 00:41:32:08

Judith Membrives

Antes era no se puede poner puertas al campo, cuando se deplegaba Internet, y ahora es no, “si pones límites…”.

 

00:41:32:10 – 00:41:44:13

Carlos Bajo Erro

Igual tendríamos que insistir… O igual la idea es esa que tú planteabas. Cuando decimos “si pones límites”, estamos poniendo en duda si tenemos que garantizar que se respetan derechos o no.

 

00:41:44:15 – 00:42:10:20

Judith Membrives

Es que yo no hablaría de límites. Claro, es que yo no hablaría de un límite. Yo hablaría de que si innovas, tienes que garantizar que los derechos se están respetando, ya está. Es que yo no puedo, no sé, inventarme unas gafas que vayan matando a todo el mundo, que me mire mal, por ejemplo, no con un láser; porque, sí me las puedo inventar, pero no las puedo poner en el mercado.

 

00:42:10:22 – 00:42:22:11

Judith Membrives

Pues bueno, tú si quieres innovar en algo que es lesivo para el resto, pues innova, pero no lo puedes poner en el mercado, ni con fines de investigación.

 

00:42:22:13 – 00:42:44:06

Natalia Pereira Martín

Además es una narrativa que genera este terreno fértil, fértil, fértil para la desregulación, que estábamos hablando hace un momento. Es el campo de batalla perfecto para ir eliminando, que además queríamos preguntarte directamente, se consiguió sacar adelante una regulación y antes has dicho que estamos viendo como eso se va hacia atrás. ¿Qué querías decir?

 

00:42:44:08 – 00:43:18:18

Judith Membrives

Vale. Nuestra valoración del Reglamento de Inteligencia Artificial fue que Europa, bueno, también esto es una visión siempre muy centrada, etc., pero que Europa dijo en su momento que quería ser el faro moral de la tecnología. Que mientras, China desarrollaba un tipo concreto de tecnología y Estados Unidos era el Far West, es que incluso se hablaba de esto, del Gran Hermano chino versus del Far West de Estados Unidos y Europa tiene que ser el faro moral.

 

00:43:18:18 – 00:43:44:17

Judith Membrives

Entonces, hablaban de las normas de oro, del estándar de oro, hablaban. Bueno, nuestra valoración fue que no era un estándar de oro, porque había tantas excepciones que abría la puerta, realmente, a que nada estuviera regulado. Y que se había fallado en proteger a los colectivos más vulnerabilizados.

 

00:43:44:19 – 00:44:13:02

Judith Membrives

Pero aparte, ahora, y esto también tiene mucho que ver con esta acusación que se ha hecho siempre hacia Europa de que es burocrática. Se está utilizando esto, para decir “Ok, pues vamos a desburocratizarnos, vamos a simplificarnos” y simplificar, según Europa, implica desregular. Porque la semana pasada, precisamente, que estuve en una reunión, yo decía “¿Quieres simplificar la AI Act? Vale, cárgate todas las excepciones”, ¿no?

 

00:44:13:07 – 00:44:43:23

Judith Membrives

Tú estás diciendo que el reconocimiento biométrico está prohibido. Excepto aquí, aquí, aquí y aquí, por seguridad nacional, que tienes que cumplir con no sé qué requisitos para poder utilizar o que tal. Cárgate todo esto. Prohíbelo y ya está. ¿Qué hay más simple que eso? No tienes que hacer todo un proceso burocrático para implementarlo. Es que, a lo mejor, no queremos este tipo de tecnología porque no aporta nada mejor a la humanidad, en realidad.

 

00:44:43:23 – 00:45:03:07

Judith Membrives

Y esto, bueno, pues claro. para alguien de la Comisión es como muy radical, cómo voy a poner este tipo de… Pero vemos cómo es un tema de discurso todo el rato. Porque, al final, “vamos a simplificar para ganar competitividad”.

 

00:45:03:07 – 00:45:29:16

Judith Membrives

Bueno, pues, a lo mejor, competitividad bajo qué marco. Porque si planteamos la competitividad en defensa de los derechos humanos, podemos simplificarlo de otra manera. Ahora lo que está haciendo Europa es a través, además de un mecanismo que no se había utilizado hasta ahora en todo lo que es la regulación europea, que es el omnibus. Me podrían convalidar algo, ¿no?, de relaciones internacionales o algo así.

 

00:45:29:16 – 00:45:30:00

Carlos Bajo Erro

De derecho europeo o de derecho comunitario.

 

00:45:30:03 – 00:46:12:18

Judith Membrives

No sé, me he hecho un máster, aquí, en estos años. Pues bueno, están aplicando estos paquetes omnibus que lo que hacen es revisar varias directivas y reglamentos para ver por dónde pueden simplificar, que al final es desregular y no solo en el ámbito digital, también en otros ámbitos. El que sigo yo es el digital, que es el primero, que además ahora están mirando, y se incluye no solamente el Reglamento de Inteligencia Artificial, se incluye el Reglamento de Protección de Datos, se incluyen las normativas que se han aprobado no hace mucho, tampoco para intentar controlar todo el tema de las plataformas

 

00:46:12:18 – 00:46:45:17

Judith Membrives

La ley de servicios digitales, la de mercados digitales. Bueno van por paquetes intentando eliminar trabas para poder desarrollar, no solo tecnología, también otras cosas. Y esto está muy relacionado con el rearme europeo, porque dentro de lo que es esta nueva ola de industria o de carrera armamentística, casi podríamos decir, la gran promesa es la inteligencia artificial.

 

00:46:45:19 – 00:47:24:10

Carlos Bajo Erro

Hemos hablado en varios momentos de narrativas, de discursos y tú sabes que a nosotros aquí en “Mucho hype…” nos gusta mucho hablar de las narrativas, pero nos has dinamitado diciendo que igual tendríamos que centrarnos en construir soluciones más que en el entretenimiento de discutir narrativas. A pesar de que hayas ido ahí, a nuestra línea de flotación, ¿nos puedes explicar un poquillo esta idea de vamos a dejar de hablar tanto de cómo hablamos y vamos a ir a construir soluciones?

 

00:47:24:12 – 00:48:16:03

Judith Membrives

Sí, es algo que creo que, sobre todo, en el ámbito digital está poco explorado. Si que tenemos, ciertamente, comunidades de código abierto, de mucha gente que desarrolla sus propias herramientas, etc., pero en el caso concreto de la inteligencia artificial, por ejemplo, hay que partir de la base de que para poder tener inteligencia artificial generativa -no inteligencia artificial de otro tipo, estamos utilizando IA para para hablar de la generativa-, necesitas tener: uno, muchísimos datos para poder alimentar y eso, generalmente, no los tenemos nosotras; y, dos, mucha capacidad de procesamiento, que tampoco la solemos tener nosotras.

 

00:48:16:04 – 00:49:01:24

Judith Membrives

Entonces, toda solución que ahora se plantee de crear inteligencia artificial para la justicia global, una inteligencia artificial abierta o como los modelos estos que está generando España: Alia, que es en catalán, castellano, euskera, gallego, etc. El fundamento sobre el que se crean es el mismo: no puede haber inteligencia artificial generativa, tal y como está planteada y tal y como se ha desarrollado, que no sea extractiva, predadora y altamente problemática desde una perspectiva material, sobre todo.

 

00:49:01:25 – 00:49:45:21

Judith Membrives

Luego podríamos intentar, qué pasa si la entrenamos con datos sintéticos, etc… Yo no digo que no tengamos que hablar de las narrativas y, de hecho, el contexto en el que hice esa crítica a las narrativas estaba pensando más en todo el tema de la ultraderecha y no tanto en la parte tecnológica. Pero sí que me da la sensación -y esto también es una reflexión que hicimos la semana pasada en el encuentro que tuvimos con todos los activistas de derechos digitales, estudios críticos de la IA, etcétera, que estamos todo el rato intentando ver cómo confrontamos este discurso de innovación versus derechos.

 

00:49:45:21 – 00:50:16:11

Judith Membrives

Cómo confrontamos esta idea de que la IA es mágica, es maravillosa y nos va a salvar a todos del cambio climático, de trabajar y de todo. Estamos pensando mucho, cómo confrontar estas narrativas, que ya hemos visto en la hora esta que llevamos de conversación, que es dando mucho detalle y es muy complicado mantener la atención de la gente tanto rato, y no estamos pensando en qué alternativas reales tomaríamos nosotras, pero es que tampoco nadie nos paga para ello.

 

00:50:16:13 – 00:50:57:05

Judith Membrives

Es decir, la crítica que yo hice iba más desde una perspectiva incluso de financiación, de que nadie te está financiando para que pienses inteligencia artificial desde otras coordenadas, que a lo mejor desde otras coordenadas pues sería, no sé… hay gente que tiene un proyecto que es AI slow, más pequeña, con criterios de escasez, con criterios de cuidado, de recolección de los datos desde una perspectiva de cuidado, por ejemplo. Que, obviamente, todo es más lento. Eso es lo primero.

 

00:50:57:05 – 00:50:59:08

Natalia Pereira Martín

Las tecnologías chiquititas que decía Paola Ricaurte.

 

00:50:59:13 – 00:51:30:11

Judith Membrives

Sí, de hecho tienen un proyecto, sí. Pues, en Europa, nadie está pagando para que hagamos eso, pero, en cambio, hay muchísimo más financiación para que confrontemos el discurso. Entonces bueno, es lo típico de: ¿están intentando que esté distraíde, mientras van haciendo las cosas para que no piense cómo sería hacerlo desde otra manera? O no vaya y me inspire de lo que está haciendo otra gente desde otra manera.

 

00:51:30:11 – 00:52:11:02

Judith Membrives

Entonces iba la crítica más por aquí. Obviamente, yo creo que el cambio social o la transformación social es un engranaje que incluye narrativa, procesos… Es decir, no creo que la narrativa tenga que desaparecer, sino que la crítica iba más en relación a “jolines, llevo, desde que he vuelto de vacaciones de verano solamente hablando de discurso y narrativa, de discurso y narrativa. Este mes de octubre hay 80 eventos distintos, solo aquí en Barcelona, sobre cómo confrontar los discursos de odio, cómo confrontar a los tecnobros, cómo tal… y ninguno de cómo creemos nuestras infraestructuras.

 

00:52:11:02 – 00:52:28:05

Judith Membrives

Que me consta que hay gente que lo hace desde… Donastech, por ejemplo. Que sí, que hay ejemplos. Pero que es cierto que a veces estoy un poco saturade de tanta narrativa y, vale, pero cuando cacharreamos con cómo sería lo nuestro.

 

00:52:28:08 – 00:53:00:21

Natalia Pereira Martín

Bueno, es una perspectiva muy interesante. Estamos acabando el episodio, pero antes de hacerte la pregunta final, queremos… a ver si te sale darnos un poco de luz. Pensábamos en preguntarte una pregunta un poco naïf y nos ha salido que si nos podrías compartir alguna victoria, alguna pequeña victoria, que nos ayude a tener esperanza desde la perspectiva de sociedad civil versus el aparato y el gran lobby. Bueno, en este espacio.

 

00:53:01:06 – 00:53:36:17

Judith Membrives

Vale, aunque es cierto que no tenemos una fuente 100% verídica, para mí fue bastante… -no voy a decir que me puse feliz, porque el contexto no es para estar feliz-, pero fue como “bueno, al menos a la presión está sirviendo para algo”. Cuando se descubrió que uno de los centros de datos de Microsoft, que estaban siendo utilizados para alimentar toda la parte digital del genocidio que está cometiendo Israel en Gaza y en los territorios palestinos ocupados.

 

00:53:36:19 – 00:54:15:08

Judith Membrives

Cuando se descubrió que ese centro de datos estaba en suelo europeo y se presionó a Microsoft para que, al menos, descontinuar ese programa, obviamente, seguro que está descontinuado otros programas. Luego, también, la campaña que se hizo para para salir de Twitter también, para mí, fue como una pequeña victoria. Ver que muchas organizaciones se sumaron a la campaña porque, inicialmente, parecía como que si se salía de Twitter las organizaciones íbamos a morir o a no poder comunicar nunca más de la vida…

 

00:54:15:09 – 00:54:55:11

Judith Membrives

Pero, a nivel de inteligencia artificial, como tal, pocas victorias tenemos, lamentablemente. Bueno, no, sí. Conseguimos también gracias a la presión y a que, al final, un partido político se hizo eco de las demandas y lo llevó a la Generalitat de Catalunya, que no se hiciera una prueba piloto de reconocimiento de emociones en una cárcel catalana. Se quería predecir cuándo un preso se iba a poner violento, mediante cámaras y esta… pseudociencia, porque el reconocimiento de emociones es una pseudociencia.

 

00:54:55:16 – 00:55:20:15

Judith Membrives

Y, lamentablemente, así grandes triunfos no tenemos, creo aún. Aunque creo que lo vamos a acabar teniendo, porque sí que creo que realmente, cada vez, hay más gente consciente. Quizá no de toda la problemática alrededor, pero sí que no es trigo limpio esto de la IA.

 

00:55:20:16 – 00:55:46:04

Judith Membrives

Y también, para mí también, otra victoria es que ahora ya llevamos cinco años con esto y dando la tabarra un poco con esto en España y que ya no me pregunten o me cuestionen por qué digo que la IA no es neutra. Esto para mí es una victoria. Bueno, al menos la gente ya empieza a tener claras ciertas cosas.

 

00:55:46:04 – 00:56:05:03

Natalia Pereira Martín

Bueno, no está tan mal, no está tan mal. Antes nos has dicho que tú no crees que puede haber una buena IA. Pero tenemos una pregunta recurrente que le hacemos a todo el mundo, que es esta de: ¿cómo debería ser la inteligencia artificial para que realmente sea beneficiosa para la humanidad y para el planeta?

 

00:56:05:05 – 00:56:28:01

Judith Membrives

Bueno, yo creo que posiblemente aboliría a lo que entendemos, ahora mismo, por inteligencia artificial, sobre todo, la generativa. Sí que creo que la tecnología predictiva o los sistemas algorítmicos predictivos tienen capacidad para mejorar la vida de las personas, sobre todo, en el ámbito de la salud, es donde creo que más.

 

00:56:28:06 – 00:57:04:10

Judith Membrives

También, si algo saben hacer los sistemas algorítmicos, es trabajar con gran cantidad de datos y hacer predicciones. Entonces, también, creo que si los estuviéramos utilizando desde esta perspectiva, nos podría ayudar a mitigar o adaptarnos al cambio climático, porque mitigar, no sé hasta qué punto ya podemos mitigar ciertas cosas. Y yo, realmente, creo que no pararé hasta conseguir el robot que me tienda la ropa, me la plegue y me la ponga donde toca, que es: ¡tanta IA! y, ¿no podemos conseguir esto?

 

00:57:04:10 – 00:57:44:09

Judith Membrives

Pero, realmente, creo que sería aquella tecnología que nos sirva para, por un lado -bueno, a nadie se le escapa que yo soy anticapitalista, entonces-, que nos pueda ayudar a pensar otro orden social y otra manera de vivir en coherencia con el planeta que tenemos y con lo que somos, que somos, al final, seres que no tenemos ninguna necesidad de estar todo el día produciendo. Somos seres humanos, no seres productivos. Entonces una que nos acerque hacia ahí, es la que creo que tendríamos que estar pensando.

00:57:44:10 – 00:57:45:09

Natalia Pereira Martín

¿Qué bonito!

 

00:57:45:11 – 00:58:31:03

Carlos Bajo Erro

Muy bien, Judith. Muchísimas gracias por este esfuerzo de compartir estas reflexiones y este proceso intelectual, que a nosotras nos sirve mucho y esperamos que a la gente que nos escucha también le sirva. Este es el quinto y último episodio, pero quedan todos ahí. Entonces, también, invitamos a la gente que nos ha estado escuchando a que visite la web del proyecto Muchohype.org, donde encontrará los cinco episodios, los cinco videopodcast, las cinco transcripciones y, si no, que lo pueden escuchar también en el canal de Spotify de Ethic.

 

00:58:31:05 – 00:58:43:24

Carlos Bajo Erro

Y con esto, contigo, cerramos esta primera temporada con la satisfacción de todas las conversaciones que hemos tenido fantastiquísimas.

 

00:58:44:01 – 00:58:45:11

Natalia Pereira Martín

Sí. Y hasta la próxima.

 

00:58:45:13 – 00:58:46:06

Carlos Bajo Erro

Muchas gracias.

 

00:58:46:08 – 00:58:48:09

Judith Membrives

Muchas gracias a vosotres. Gracias.

 

Judith Membrives

Responsable de IA y Derechos Humanos de Lafede.cat. Estudiante de doctorado en el IN3 de la UOC y miembro fundadora de la comunidad Algorights. Hace más de 10 años que analiza el impacto social de las nuevas tecnologías, habiendo trabajado a empresa privada, administración pública y tercer sector.

EPISODIOS