“El problema de la tecnología es que es un poder que ambiciona no tener límites”

José María Lassalle, director del Foro de Humanismo Tecnológico de Esade, es doctor en Derecho, profesor universitario, consultor, analista, escritor y articulista, además de expolítico. Este santanderino apasionado de los libros analiza en esta entrevista el papel de la tecnología y de su relación con el ser humano al que emplaza, si no quiere ser sustituido, a preservar como algo absolutamente innegociable su creatividad y capacidad crítica para analizar los cambios. José María Lassalle aboga por el control democrático de las máquinas y por una cultura de los derechos digitales; defiende la necesidad de reinterpretar la educación, la salud y la política para poner la tecnología al servicio de la dignidad humana, y alerta de que el futuro del capitalismo tecnológico o es humanista, o nos aproximaremos a una realidad distópica.

Manuel Casino |  @mcasino8 | Diciembre 2022

Pregunta.– Se habla mucho de los beneficios de la tecnología y de su capacidad disruptiva pero muy poco de sus riesgos. ¿Echa de menos un mayor pensamiento crítico?
Respuesta.– Esa es la gran tarea que tenemos por delante: reflexionar críticamente sobre las potencialidades de la tecnología, que no es neutra. La tecnología es un poder, que, además, tiene una capacidad extraordinaria para propiciar el cambio de las personas y de las sociedades. Esos cambios pueden ser para bien o para mal. Y dependen de cómo el ser humano, la política y las sociedades afrontan el diseño de esos cambios.

P.– Sostiene que ya no cabe hablar de revolución, ni de transformación ni siquiera de transición digital, sino de consumación digital. ¿Nos hemos pasado de listos?
R.– Bueno. Estamos entrando en los umbrales de un cambio radical que incluso puede afectar a la naturaleza misma del ser humano. Y eso significa que, de igual manera que hablamos de un Antropoceno cuando nos referimos a los efectos del cambio climático, a lo mejor tenemos que empezar a hablar de un Antropoceno digital para referirnos a que la transformación digital de nuestras sociedades nos está exponiendo al riesgo de una falta de sostenibilidad tecnológica, de nuestra capacidad para asimilar y responsabilizarnos del poder que la tecnología nos está dando.

P.– Desde el foro que dirige asegura que el desarrollo de plataformas digitales sin reglas, ni valores, ni referentes éticos nos aboca hacia una automatización de la economía que, según afirma, amenaza la viabilidad de la democracia liberal y de las actuales reglas de mercado. ¿En manos de quién estamos?
R.– Pues estamos en manos de algoritmos que gestionan datos, que predicen comportamientos humanos y que están transformando el mercado tal y como lo hemos entendido en un mercado conductual. Hasta ahora, ese mercado conductual se ha basado en plataformas que desarrollan modelos de negocio sobre el uso de los datos que manejan los algoritmos. Ahora podemos empezar a apreciar que esos modelos de negocio también son modelos de poder. Por eso, es imprescindible el control democrático. Afortunadamente, Europa ha interiorizado que es una responsabilidad de las instituciones europeas regular el uso de la inteligencia artificial, los servicios digitales, el comercio electrónico, los metadatos… En fin, generar un marco de seguridad jurídica que nos ampare frente a un cambio tecnológico que es disruptivo en el sentido literal.

P.– ¿Urge por tanto poner límites al poder de las grandes corporaciones tecnológicas?
R.– Claro. Pero también la Unión Europea en el ámbito de sus competencias está tratando, y el Reglamento de Servicios Digitales y de Mercados Digitales así lo prevé, de limitar las capacidades de poder que tienen los llamados guardianes del sistema tecnológico y de acceso a las redes y a la sociedad de la información. De igual manera que Estados Unidos desarrolló al final del siglo XIX una legislación antitrust, que limitó el capitalismo industrial y dividió las grandes corporaciones de la industria del acero, de la banca o del petróleo, Europa está tratando de que, en las divisiones que ese mundo proyecta sobre el mercado europeo, también se limiten sus capacidades de hegemonización del mercado. Porque el monopolio es malo por principio. Porque aboca a la arbitrariedad. Es lo que está intentado la Administración Biden desde que ha llegado al gobierno, pero en lo que a día de hoy todavía no ha conseguido avanzar. Esa es la gran batalla política que libran, silenciosa pero muy profunda.

P.– Con un desarrollo económico volcado en lo tecnológico, y con todos los riesgos que ello comporta, ¿hay forma de evitar el choque entre humanismo y economía?
R.– Tendría que evitarse, pero las dinámicas por el momento no están siendo todo lo positivas que deberían ser. El futuro del capitalismo tecnológico o es humanista y, por lo tanto, establece criterios éticos que den sentido a la transformación digital mejorando los salarios de quienes se relacionan con la tecnología, incrementando los espacios de ocio y favoreciendo una lógica de bienestar social acorde con un entorno tecnologizado, o nos aproximaremos a una realidad distópica. Y es lo que, por ejemplo, Europa trata de hacer también con el desarrollo de la filosofía del humanismo digital, de que la tecnología no haga que el ser humano pierda su centralidad. Que el ser humano siga siendo la medida de todas las cosas.

P.– Reclama la necesidad de devolver a la persona la centralidad perdida frente a los datos, los algoritmos, la inteligencia artificial o la robótica. ¿Cómo se lleva a la práctica este relato humanista?
R.– Modificando los sesgos que introducen los algoritmos. Si reguláramos legalmente el algoritmo de la conversación, podríamos cambiar las dinámicas de polarización y de violencia dialéctica que caracteriza a una plataforma como Twitter. Porque este algoritmo lo que prima es la morbosidad del diálogo, refuerza el ruido en las conversaciones y atrae y destaca lo morboso. Y eso genera los bucles que están facilitando la polarización. ¿Por qué? Porque a través de esos algoritmos conversacionales, diseñados como digo para primar lo morboso, estamos radiografiando con datos los aspectos más reptilianos del comportamiento humano, que son básicos también para los perfiles comerciales. Y aquí es claro que hay un valor económico. Y de los que se trata es de limitar los efectos sociales que puede tener ese uso económico de perfilados.

P.– Cada vez trabajamos, nos entretenemos y nos comunicamos más online. ¿Nos estamos deshumanizando a marchas forzadas?
R.– Sí, porque la estructura del trabajo digital, tal y como la concebimos asociada al uso de dispositivos tecnológicos, aloja dentro una arquitectura cibernética y un diseño que lo que busca es estimular la adicción. Es decir, saca el aspecto más infantil vinculado al juego y al deseo adictivo del juego, lo que nos aboca a experiencias poco humanísticas. El tiempo real que se vincula al teletrabajo lo que está haciendo no es solo romper las barreras de la vida profesional y doméstica, porque ya nos llevamos el trabajo a casa y no somos capaces de perimetrar, sino que esta intensidad del uso tecnológico hace que no midamos el tiempo psicológicamente. De manera que, en términos reales, estamos trabajando más desde que teletrabajamos. Desde hace diez años, la OIT y el FMI reconocen que el valor del trabajo humano es cada vez menor porque la competitividad de las empresas se basa en una productividad ligada al uso de la tecnología: cuanta más tecnología utiliza un trabajador, más productivo es, pero menos valor tiene su trabajo. Esto explica, entre otras cosas, el colapso de rentas que afecta a la clase media porque daña directamente a los ingresos de los profesionales liberales, que ven cómo cada vez se paga menos por su trabajo. Y todo tiene una relación directa con la tecnología. Hay un indicador, en el que estoy trabajando, que establece que, si uno mide el incremento de facturación y lo relaciona con la inversión en transformación digital, y analiza el coste laboral, verá que los salarios van reduciéndose paulatinamente. Esto indica que hay un proceso de deshumanización, a pesar de que la tecnología es limpia y no nos mancha, aunque también contamina.

P.– En la vida digital, desnudamos y desguarnecemos nuestra privacidad sin tapujos ni recelos. De hecho, afirma que nunca como hasta ahora habíamos ayudado a las máquinas a conocernos tanto y aprender más de nosotros. ¿Ha llegado la hora de los derechos digitales?
R.– Sí. Es fundamental que introduzcamos unos derechos digitales. Esa es la dinámica en la que estamos desde hace unos años. El año pasado se aprobó la Carta de Derechos Digitales en España, pero que no tiene aún efecto normativo, y Europa acaba de elaborar también una declaración de derechos digitales. Lo que hace falta es desarrollar una cultura de derechos digitales semejante a las generaciones de los derechos fundamentales que han hecho posible la protección de la dignidad humana y que han sustentado a las democracias liberales en sus fundamentos éticos. Por tanto, es necesario que el ser humano sea protegido, no solamente en su privacidad y en su intimidad, que ya lo está siendo afortunadamente, sino que hay que profundizar mucho más frente a nuevas experiencias de aplicaciones tecnológicas tan poderosas como puedan ser el metaverso.

El pensador santanderino, que fue secretario de Estado de Cultura y Agenda Digital en el Gobierno de Mariano Rajoy, durante la conferencia inaugural de la jornada organizada por el Colegio de Economistas de Cantabria, que versó sobre humanismo tecnológico.

P.– En el mundo tecnológico, cada vez es más difícil distinguir entre lo verdadero y lo falso, entre hechos y ficción. ¿La verdad se ha relativizado?
R.– Es que el conocimiento ha sido sustituido por la información, que es distinto. Es decir, la información era procesada a través de una cadena de agregación de valor que aportaba el ser humano mediante el conocimiento especializado de los profesionales, de los académicos, de esa jerarquía epistémica que nació bajo la Ilustración y que ha definido nuestra cultura occidental en los últimos siglos. La irrupción de la desintermediación que ha traído consigo la tecnología ha roto esa clásica intermediación del conocimiento académico y especializado de los profesionales. Ahora, para poder operar sobre esa información, necesitamos nuevos modelos de conocimiento que ya no son humanos, sino que son ‘maquínicos’. Es la inteligencia artificial. Y claro, el conocimiento humano no es el conocimiento de las máquinas. Y la verdad humana no es la verdad calculable a través de un algoritmo que opera dentro de una inteligencia artificial. Esa es la diferencia que, entre otras razones, está haciendo que, cuando tratamos de explicar los malestares que acompañan a los fenómenos sociales contemporáneos, no le pongamos nombre, pero tiene que ver con la inquietud que nos provoca de asumir aquella reflexión de Isaac Asimov en la que decía que lo único inevitable serán las máquinas.

P.– Tal y como están hoy las cosas, en la convivencia entre el hombre y la tecnología, ¿las máquinas juegan con ventaja?
R.– Claro. Juegan con una ventaja enorme porque tienen capacidad de gestionar esa información que desborda la capacidad cognitiva del ser humano. Nos aturde en tiempo real la información que recibimos a través de las redes. Antes, como decía, esa información estaba intermediada, incluso cronológicamente porque accedíamos a ella a través de un periódico, de una radio o incluso de la televisión. Ahora nos movemos en un tiempo real y solo en información vinculada a lo que ocurre en el mundo, ya nos desborda la capacidad de asimilación. Si a eso le añadimos toda la información que genera el mundo y que somos capaces de registrar, estamos absolutamente desbordados. A lo mejor, una parte importante de la salud mental quizá tenga que ver en gran medida con estas dislocaciones emocionales que nos provocan no tener ya intermediaciones que nos alejan de los impactos de tanta información.

P.– Sin cauciones legales que lo regulen, el cibermundo campa a sus anchas. Si no se impone un control democrático, ¿estamos a las puertas del totalitarismo tecnológico?
R.– No sé si un totalitarismo tecnológico. La socióloga norteamericana Zuboff publicó ya hace unos años un ensayo que tituló ‘La era del capitalismo de vigilancia’ para definir el riesgo de generar un capitalismo que acabará con nuestra privacidad e intimidad. Eso China lo ha elevado a un estado de plataformas en las que controla todos los movimientos del ser humano dentro de sus fronteras. En nuestro caso, no sé si corremos el riesgo de evolucionar hacia una pesadilla orwelliana como ese capitalismo de vigilancia, pero sí es verdad que estamos siendo acostumbrados a no decidir y a que decida por nosotros un algoritmo en la mayor parte de los consumos digitales que hacemos y a no opinar, porque también estamos ya involucrados en procesos de normalización de opiniones a través de las redes sociales, donde nos alojamos en entornos confortables para lo que ya presuponemos que debe ser la manera de ver y de interpretar el mundo. Y eso nos restringe nuestra capacidad para equivocarnos, para aprender de nuestros errores y para evolucionar en nuestra manera de pensar y nos aboca a una mediocridad colectivizada.

P.– Para Ortega y Gasset no hay hombre sin técnica. Pero, al mismo tiempo, advierte del peligro de que el hombre, abrumado y absorto ante el sinfín de posibilidades que le brinda la técnica, se vuelva incapaz para determinar el contenido de su propia vida. Dígame, en este momento, sin duda el más intenso en cuanto a desarrollo tecnológico de toda la historia de la humanidad, ¿cómo podemos crear un auténtico proyecto vital que se aleje por completo de la pura servidumbre funcional de las máquinas?
R.– Esa es la tarea que tienen las sociedades democráticas de encauzar hacia un nuevo humanismo las capacidades que está liberando la tecnología para cambiar nuestras vidas. Hace falta reinterpretar la educación, la salud, la política…, y en cada uno de estos ámbitos poner la tecnología al servicio de la dignidad humana, que es una red sacra que debemos ser capaces de preservar. Y dentro de esa dignidad humana está la capacidad irrenunciable que atribuye al hombre un poder de emancipación crítica frente a la realidad. Y hay que trabajar por ello. Y eso empieza por la educación. Hace falta cambiar todo el sistema educativo y orientarlo hacia ese empoderamiento crítico, es decir, hacia cómo complementarnos idealmente con la máquina. El sistema educativo ya no puede seguir forjando profesionales que compitan con las máquinas, porque entonces perderán frente a ellas. Por tanto, falta revisitar cuál es el papel de nuestra complementariedad, y eso pasa por la creatividad. En su relación con las máquinas, el ser humano tiene que preservar como algo absolutamente innegociable la creatividad y la capacidad crítica para analizar los cambios. Como cedamos eso, seremos sustituidos.

P.– Sostiene que, hasta el momento, el balance del siglo XXI es el de un siglo profundamente antiliberal. Además, declara que el liberalismo está herido, mientras el populismo gana terreno y crece la nostalgia autoritaria en las democracias. Si seguimos por esta senda, ¿hay espacio para confiar en el futuro?
R.– Sí. Sigo pensando que el futuro nunca está escrito. Se vio en los años 30 y 40, cuando el mundo se veía abocado a ser dominado por el fascismo; y se vio después durante la Guerra Fría, cuando se pensaba lo mismo en relación al comunismo. No estoy convencido de que el futuro tenga que ser distópico. Pero sí creo que hace falta hacer el diagnóstico adecuado para identificar realmente dónde están los problemas que acompañan al desarrollo de la tecnología. La tecnología es una herramienta extraordinaria que ha permitido, desde las primeras transformaciones técnicas que experimenta el ser humano, convertirse en la especie dominante sobre el planeta. Las oportunidades que ha liberado la técnica son extraordinarias, pero necesitamos visualizar los riesgos y los peligros que tenemos por delante para sacar un mayor provecho de la tecnología que contribuya al bienestar humano. Debemos poner de manifiesto que las máquinas están para hacernos más fácil y mejor la vida.

P.– ¿Empatía, confianza, generosidad o solidaridad son valores en desuso?
R.– No lo creo. Porque la pandemia ha demostrado la fuerza secreta que acompaña a la colaboración, a la cooperación. Y el conflicto bélico en Ucrania nos demuestra ahora también que es necesario cooperar y ayudar a aquellos que sufren la arbitrariedad de una guerra ilegítima. Por tanto, no creo que estén en desuso, pero sí que están amenazados y que necesitan revitalizarse porque una parte fundamental del futuro pasa por la cooperación, por individuos que cooperan, no por individuos aislados. Y la cooperación necesita sentimientos, que no emociones, que nos llevan a la demagogia y pueden acompañar a los procesos totalitarios. Los sentimientos, en cambio, construyen una democracia porque la libertad es un sentimiento; la igualdad, también; y la solidaridad y la fraternidad son la expresión más palpable de lo que podemos entender como una educación sentimental, que es la base de nuestra civilización y de nuestra cultura.

P.– Reivindica un humanismo más sereno con respecto a la tecnología, que cultive la paciencia y la espera y fije límites a una técnica humana para que no sea inhumana. En este camino, ¿la política, la ética y el derecho deberían ser compañeros inseparables?
R.– Totalmente. Se construyen alrededor de la idea del límite. La ética y el derecho plantean límites y la política se basa en límites. Y lo que necesitamos para la tecnología son límites. El problema de la técnica, como plantea el filósofo francés Jacques Ellul, es que es un poder que ambiciona no tener límites. Es un poder fáustico, que se sale de los límites. Porque detrás de la lógica del conocimiento científico que alimenta el poder técnico y que está en los orígenes de la modernidad científica, está la ambición de llevar las fronteras de la realidad más allá de los límites. Y eso es lo que tenemos que ser capaces de educar. Eso plantea una nueva experiencia de los límites y, como dirían los griegos, una nueva ‘paideia’, una nueva educación. Tenemos que volver a aprender los límites