La inteligencia Artificial y la humanidad: “Los algoritmos pueden destruir la democracia"

  • Tres especialistas nos hablan del desarrollo de la IA

  • El miedo a las máquinas y a una posible rebelión, una fantasía humana con poco sustento

  • Grandes multinacionales de EEUU ya usan programas de IA que graban a los aspirantes y analizan las respuestas , los gestos y otros detalles

Los humanos tenemos un miedo ancestral a los robots, a las máquinas. Miedo a que nos quiten el trabajo, a que manipulen nuestras opiniones y con ello nuestros actos. A que nos controlen. A que se rebelen y sean ellos los que manden en nuestro mundo cada vez menos humano y más artificial. Le hemos preguntado a los que saben si están justificados estos miedos a la Inteligencia Artificial, si hay peligro detrás de los nuevos sistemas que controlan, limpian, asisten, construyen, calculan predicen. Esto es lo que nos han respondido.

“Las películas de ciencia ficción han hecho mucho daño a la percepción que tenemos sobre todo esto. La aplicación de modelos de inteligencia artificial y sistemas automatizados ha llegado y va a seguir avanzando, sin embargo el impacto futuro de toda esta tecnología podría ser más parecido al que tuvieron los cajeros automáticos y menos que el que proponen las películas basadas en novelas de Isaac Asimov. Si será tan intenso o no, ya se verá, lo que si sabemos es que sucederá rápido", explica Marc Vidal, experto en Economía Digital. Economía Digital.

¿Hay alguna posibilidad de que las máquinas se insubordinen y traten de matarnos? Como HAL, el superordenador de 2001 Odisea Espacial o el Terminator de tercera generación. Manuel Jesús López Baroni, profesor de Filosofía del Derecho de la Universidad Pablo de Olavide, de Sevilla y miembro del Comité de Observatorio de Bioética y Derecho de la Universidad de Barcelona rechaza la palabra peligro al hablar de IA, prefiere decir “riesgos” y aunque reconoce que su desarrollo y su comportamiento son impredecibles, niega cualquier posibilidad de que sean un peligro para la Humanidad sistemas que carecen de conciencia.

“Primero debemos descartar los peligros. Por ejemplo, no se ha hecho ningún avance en conciencia artificial, y nada indica que alguna vez lo vayamos a lograr. Por ello, una IA consciente de sí misma es una idea, en principio, descartable.

Eso no significa que no haya riesgos. En mi opinión, los mayores riesgos pueden venir de:

a) la automaticidad (que una IA desencadene procesos en cadena que no podamos controlar);

b) la Caja Negra, que se puede sintetizar de la siguiente forma:

b.1) una IA detecta patrones donde los seres humanos solo vemos ruido.

b.2) una IA es capaz de hacer predicciones que los seres humanos no le hemos pedido.

b.3) el algoritmo que detecta los patrones y hace las predicciones no es comprensible ni siquiera para sus propios creadores (falta la “explicabilidad”, lo que violaría, por ejemplo, el Reglamento Europeo de Protección de Datos). Y Baroni pone de ejemplo: "Imagina que una IA predice que un banco va a quebrar, pero quienes crearon el algoritmo no saben explicar el por qué de la predicción, y tampoco si la predicción es correcta (aunque es muy probable que lo sea). Pues eso, pero a gran escala.”

La ingeniera industrial e investigadora Sara Lumbreras coincide en marcar la distancia que separa a la inteligencia artificial de la conciencia humana.

“Estamos muy, pero que muy lejos de tener máquinas conscientes: no sabemos qué es la consciencia, y aunque las máquinas actuales sean cada vez más capaces de parecer conscientes eso no quiere decir que lo seanparecer conscientes . La idea principal de la IA es que podemos entrenarla para resolver cualquier problema. También podemos entrenarla para que nos engañe pareciendo consciente, y es esto último lo que estamos haciendo. Así que, dentro de poco, sí tendremos máquinas que parezcan conscientes: de nosotros depende no ser presa del engaño” .

No debemos subestimar la capacidad de las grandes corporaciones para manipular nuestros deseos, voluntades o percepciones de la realidad. Somos mucho menos inteligentes de lo que nos creemos, de ahí que no sea demasiado difícil condicionarnos en la dirección que deseen

El escritor y analista británico Richard Seymour en su libro 'La máquina de Trinar' (The Twittering machine, edit. Akal Pensamiento Crítico) explica muy bien este engaño que vivimos en las redes sociales sometido al control de los algoritmos diseñados para redirigir nuestra voluntad.

“En las redes sociales ya los algoritmos nos manipulan y facilitan a los que lo hacen con botones creados para hacernos adictos, dependientes de esos mecanismos diseñados solo para volver una y otra vez a buscar la recompensa”. Seymour recuerda el primer vídeo publicitario de Facebook que hablaba de ese universo 'vasto y oscuro y nos hace preguntarnos si estamos solos'. Construimos conexiones, decía, para "recordarnos que no estamos solos'. Construimos conexiones, la conexión es la base para crear 'una gran nación', algo que la gente construye de modo que tenga un lugar al cual pertenecer'. Eso decían".

Ahora sabemos que detrás hay una máquina que sigue nuestros pasos, los cuenta, los calcula, los confronta con ese otro universo de datos que dejamos a merced de las máquinas. Mientras tanto, nos creemos libres de decidir dónde pinchar, qué votar, dar me gusta. Ya nos lo ha demostrado la fuerza del negacionismo, los tierraplanistas en el siglo XXI y el arrollador poder de Donald Trump, como lo explica Manuel Jesús López Baroni.

“No debemos subestimar la capacidad de las grandes corporaciones para manipular nuestros deseos, voluntades o percepciones de la realidad. Somos mucho menos inteligentes de lo que nos creemos, de ahí que no sea demasiado difícil condicionarnos en la dirección que deseen. El marco del Estado Nación no es el adecuado para enfrentarse a estas cuestiones, y solo marcos territoriales amplios (la UE, Iberoamérica, etc.) puedan enfrentarse con relativo éxito a estas corporaciones. Los algoritmos que predicen (y condicionan) el comportamiento electoral de la población, pueden destruir la democracia tal y como la conocemos. Probablemente el caso Trump sea el primer ejemplo del empleo de los Big Data con fines espurios.”

Sin embargo, mientras Holywood nos llena la cabeza con máquinas que vienen del futuro a eliminar humanos rebeldes, las IA recopila nuestros datos, los robots fabrican coches, infraestructuras, cuidan de nuestros enfermos y de los criaderos intensivos de cerdos en China desplazando la mano de obra humana. Esto sí debería preocuparnos.

El riesgo es más laboral que otra cosa. La versión oficial sobre el futuro laboral de todos debe ser revisada. Es evidente que algunos sectores, como la fabricación y el transporte, tienen un alto potencial técnico para la automatización. Sin embargo otros, como la educación, los profesionales creativos, la información y la atención sanitaria, tienen un potencial humano difícilmente sustituible por un sistema automático. El apocalipsis robótico es menos posible en aquellos empleos donde la formación y la creatividad es algo fundamental", asegura Marc Vidal especialista en Transformación Digital y Industria 4.0.

La recopilación de datos personales privados es un riesgo real

La ingeniera Sara Lumbreras, profesora de la Universidad Comillas e investigadora en el Instituto de Investigación Tecnológica asegura que el riesgo real más inminente es el de la recopilación de datos personales, privados que acumulan empresas gracias a la capacidad de estas tecnologías y el uso que puedan hacer de estos, así como la irrupción de las máquinas en el mercado laboral destruyendo puestos de trabajo y radicalizando la sociedad entre los muy rico, quién controla estos sistemas y los muy pobres, que se quedarán al margen.

"Los problemas principales a los que nos enfrenta la IA ahora, están relacionados sobre todo con la toma de decisiones de manera automática, que incluye los posibles problemas de sesgo algorítmico (el tratamiento desfavorable de algunos colectivos, por ejemplo en función de su raza; la falta de guías claras para el establecimiento de responsabilidades; La colección y el uso de datos personales con la posibilidad de manipulación del individuo y las sociedades (como, por ejemplo, en el escándalo de Cambridge Analítica). Los dilemas relacionados con los beneficios generados por la IA. ¿A quién beneficia y a quién perjudica? Aquí nos debemos plantear preguntas como ¿Cómo deben pagar impuestos las empresas que aplican IA? ¿Qué haremos si el paro sube a raíz de la automatización? Idealmente, deberíamos conseguir que la aplicación de la tecnología beneficie a todos, y no sólo a unos pocos a costa de la mayoría."

El riesgo de ampliar el porcentaje de ciudadanos sin criterio en temas importantes y de dejarnos seducir por un mundo automático crece

Cómo evitar que los sistemas de inteligencia artificial nos engañen, que nos manipulen. Cómo enfrentarnos a estos estados alterados de poner “en la nube” tus archivos, tu identidad. Qué puede pasar con esa simbiosis humano-maquina. Qué mundo parirá ese estado de dependencia permanente a una pantalla, cómo enfrentarlo. Algunos advierten de que las tecnológicas apuestan más por el señor dinero dejando atrás todo lo demás. “¿Y qué es todo lo demás?”

El comunicador Richard Seymour, muy crítico con el modelo de la industria de las redes sociales basados en algoritmos que funcionan a favor de atentos negocios, explica lo paradójico de este sistema en 'La máquina de trinar'.

"Nadie nos obliga a estar en las redes ni nadie nos dice qué colgar o qué votar con un 'me gusta', ni qué enlace pinchar. Y sin embargo, nuestras interacciones con la máquina están condicionadas" (...) "como todas las empresa, los gigantes de la Industria social afirman que proporcionan a la gente lo que quiere, sus técnicas dan por sentado que no podemos saber lo que queremos. La máquina no es una democracia y ni siquiera es un mercado; nosotros no somos clientes, ni votantes. Somo siervos digitales".

Marc Vidal, un entusiasta del nuevo mundo digital lo explica así “La formación de los más jóvenes no debería ser solo tecnológica. Eso será como ahora se estudia inglés. Lo que será necesario es que estudien filosofía para abordar debates éticos y poesía, incluso, para explicarle a los robots como somos los humanos. Los ciudadanos nos hemos convertido en simples ‘sensores’ que, a la vez, actuamos como ‘productores’; productores de datos sobre nosotros y nuestras relaciones con el entorno. El problema es que de momento no hay nada que haga prever que ese intercambio vaya a ir en dos direcciones. Vamos a entregar datos pero no vamos a tener opciones de interactuar al mismo nivel en ese proceso. ¿Qué decisiones toman esos algoritmos? ¿Y cómo las toman? No seré yo alguien sospechoso de no ver en la tecnología un aliado para el género humano, todo lo contrario. Pero el riesgo de ampliar el porcentaje de ciudadanos sin criterio en temas importantes y de dejarnos seducir por un mundo automático crece. Y es que ceder el mando a la tecnología sin haber analizado antes quiénes son los verdaderos actores de este asunto, las variables éticas y sociológicas que tiene una decisión algorítmica a tiempo real de todo lo que nos afecta, es enorme.”

Esta convivencia debería ser una convivencia a dos niveles: la del ser humano como centro y la del autómata como herramienta que le sirve. Y para que las máquinas realmente sirvan al ser humano debemos ser claros en lo que buscamos de ellas

Nos han contado, los optimistas, que las máquinas harán los trabajos más difíciles y peligrosos, que nos solucionarán la vida en el planeta idilio. La IA detectará nuestras enfermedades con antelación ; anticiparán hasta las próximas mutaciones de los coronavirus y previsiblemente en que animales será. Los otros, los aguafiestas de este entusiasmo digital, mientras tanto nos preguntamos cómo conviviremos con los robots, con las máquinas.

“Esta convivencia debería ser una convivencia a dos niveles: la del ser humano como centro y la del autómata como herramienta que le sirve. Y para que las máquinas realmente sirvan al ser humano debemos ser claros en lo que buscamos de ellas, en para qué las diseñamos y en cómo ese diseño nos beneficia a nivel global. Estas son las conversaciones que necesitamos empezar a tener, subraya la profesora de la Universidad Comillas y añade:

“La tecnología forma parte de nosotros, de ser humanos. Depende de nosotros qué tecnologías decidimos desarrollar y dónde aplicarlas, no sólo a nivel individual sino a nivel social. La tecnología tiene un potencial tremendamente humanizador, y esto es aún más cierto en el contexto de la IA. La IA puede ayudarnos a incrementar el conocimiento que tenemos sobre el mundo, haciendo avanzar la ciencia mucho más rápidamente que hasta ahora, y podemos automatizar ciertas tareas que nos permitan tener más tiempo libre para emplearlo en otras que estén más alineadas con nuestro propósito personal. Cuando una aspiradora automática me libera para pasar más tiempo con mis seres queridos, la tecnología se está aplicando de manera humanizadora. Cuando el móvil me permite estar en contacto con los que están lejos, cuando puedo atender las dudas de mis alumnos desde cualquier parte, cuando podemos aprender algo nuevo desde nuestra propia casa accediendo a la biblioteca más grande jamás creada... la tecnología hace lo que debería hacer. Esto no es así en todas las ocasiones, como ya sabemos. Debemos reflexionar a nivel individual y a nivel social sobre en qué ocasiones la tecnología nos ayuda y en qué ocasiones no, y actuar en consecuencia”.

Estoy escribiendo este artículo y quizá dentro de unos años no sea yo, ni nadie quien escriba artículos ni noticias. Ya existe una máquina capaz de escribir noticias y hacer el trabajo de una redacción entera. También hay otra que pinta tan bien como Leonardo da Vinci o Rembrand; un brazo robótico puede operar con tanta o más precisión que el mejor cirujano. No tendremos que hacer trabajos reiterativos ni duros, pero lo mejor es que las máquinas no cogen vacaciones, no se quejan, no enferman, no tienen sindicatos de máquinas para exigir que respeten sus derechos de máquinas. Los pesimistas o tecnofóbicos creen que debemos tener miedo desde ya, porque las máquinas serán tan inteligentes que nos harán tontos si es que un poco no lo somos ya. Es cierto harán las cosas por nosotros, decidirán por nosotros y finalmente podrían llegar a prescindir de nosotros. Esto último, por el momento, es solo una exageración, nos aseguran los que saben.