top of page

El Levantamiento de las Máquinas



El título “El levantamiento de las máquinas” nos lleva a pensar en ciencia ficción. Todos conocemos esta trama: En un futuro cercano, se introduce en la sociedad una invención tecnológica. No importa que sean androides, cyborgs o una inteligencia artificial, el caso es que los humanos van a salir perdiendo. Hal 9000 en 2001: Una Odisea en el Espacio, Skynet en Terminator, La Reina Roja en Resident Evil o VIKI en Yo, Robot. El cine nos dice que nuestras creaciones acabarán por escapar a nuestro control y rebelarse contra nosotros.


¿Y si os digo que la inteligencia artificial ya trabaja contra nosotros? No estoy especulando o prediciendo, hablo de cosas que están pasando aquí y ahora, conectadas a los algoritmos que gobiernan nuestras vidas. No es como el futuro distópico que la ciencia ficción nos propone: es peor.


Redes Neuronales y las Tres Leyes de la Robótica


Para entender lo que pasa con la inteligencia artificial debemos antes aprender un poco como funciona. Es demasiado fácil demonizar las IAs sin saber como funcionan, pero antes de juzgar es de rigor informarse. Las IAs (inteligencias artificiales) son básicamente algoritmos. Un algoritmo es un modelo matemático en el que se dan una serie de instrucciones para llegar a un determinado objetivo. Hay muchísimos tipos de algoritmos; algunos los estudiábamos en el colegio y otros determinan cuántos seguidores puedes conseguir en tu cuenta de Instagram.


Los que me interesan para explicar las IAs son las redes neuronales artificiales, y el matemático David Sumpter nos explica cómo funcionan. Las redes neuronales son un tipo de algoritmos inspirado en el funcionamiento del cerebro humano, en el que las neuronas reciben y emiten pulsos eléctricos. Como dice Sumpter, estos algoritmos solo son caricaturas del cerebro humano, pero constituyen un avance respecto a modelos anteriores: las redes neuronales aprenden.


Si nosotros quisiéramos crear un algoritmo para escribir un libro, por ejemplo, deberíamos diseñar un modelo con el rango de palabras que queremos usar, junto con las normas gramaticales y unas reglas de uso (por ejemplo, randomizar ciertas palabras para simular creatividad). Después de darle toda la información necesaria, nuestro modelo debería saber qué puede hacer o no, y produciría textos coherentes, porque al sistema ya se le ha dicho como ordenar las palabras.


Las redes neuronales no funcionan así. En vez de proporcionarles información sobre las reglas gramaticales, creas la estructura básica (con sustantivos, verbos, artículos, etc.), y lo que te va a salir de primeras será un sinsentido. Y ahí empieza el entrenamiento. Cada vez que la red neuronal produce un resultado deseado, se refuerzan los conectores que lo provocaron. Este es un acercamiento de abajo - arriba, en el que la máquina va aprendiendo las reglas gramaticales con los refuerzos. Sumpter dice que después de 20,000 secuencias, su algoritmo podía decir “el perro muerde al gato”. Eureka.


Las redes neuronales es el tipo de inteligencia artificial que interesa ahora. Cuanto más aprenda la máquina por sí misma, menos trabajo tiene que hacer el humano. Si tienes dudas de cual es el futuro, simplemente mira en qué campo de inteligencia artificial se especializan los matemáticos captados por Google y Facebook, y ahí tienes tu respuesta.

red neural algoritmo
Ejemplo de una red neural antes de entrenarla. Gato muerde persigue

Hipotéticamente, no es tan descabellado que una inteligencia artificial decidiese optimizar a la raza humana mediante el control (Yo, Robot), o incluso la exterminación (Los vengadores: La era de Ultrón). Entrenar a una IA para hacer algo requiere un ajuste muy preciso. Metas imprecisas o pobremente formuladas, introducidas en la máquina, podría ser la causa de que la IA VIKI intentase matar a Will Smith en Yo, Robot.


Esta película, basada en los escritos de Isaac Asimov, trata de un futuro en el que los robots asistentes son comunes, y sus acciones están controladas por una inteligencia artificial llamada VIKI. Todos los robots siguen las tres leyes de la robótica, que les impiden dañar a un ser humano o permitir que, por inacción, un ser humano sufra daños. Una interpretación libre de de las tres leyes conduce a VIKI a deducir que los humanos son autodestructivos hasta el punto de causar su propia extinción. Bajo esta lógica, controlar a los humanos les impediría dañarse a sí mismos, con lo que VIKI decide hacer esto mismo. La peli es de 2004, esto no cuenta como spoiler.



robot malo VIKI yo robot
O es cosa mía o todos los robots malvados son mujer

Este ejemplo es una posibilidad remota. Cómo de remota ya es algo a determinar por un experto. Si me preguntas a mí, no creo que el levantamiento de las máquinas se parezca a esto. Para mí es mucho más aterrador. Y ya está sucediendo. Si no sabías mucho sobre este tema antes, agárrate que vienen curvas.


Vida universitaria y lógica instrumental


Como dice la matemática Cathy O’Neil, los modelos matemáticos siempre favorecen más la eficiencia que la justicia porque la justifica es demasiado difícil de cuantificar. ¿Cómo decidir lo que es justo?. En Armas de Destrucción Matemática, O’Neil explica el delicado equilibro entre justicia y eficiencia.


En 1983, la revista estadounidense U.S. News sacó su primer ranking universitario para ayudar a los estudiantes a tomar su primera gran decisión adulta: a qué universidad ir. Para crear semejante modelo los creadores necesitaban primero decidir qué factores tener en cuenta para conseguir la “excelencia educativa”. Hay demasiados factores que contribuyen a una experiencia universitaria positiva, y muchos de ellos no tienen que ver con los resultados académicos. Como no podían cuantificar la definición de “éxito” eligieron otros factores que parecían tener una correlación con el éxito. También dejaron fuera un factor bastante importante: el precio de las matrículas.


El ranking fue un éxito rotundo, convirtiéndose en un referente en el país. Ahí es cuando empezaron los problemas: Las universidades hacían todo lo posible por tener una buena posición en el ranking. Algunas pagaban a los estudiantes para volver a hacer la selectividad, con la esperanza de que sacaran mejores notas en el segundo intento. Otras manipulaban números en prácticamente todo: cuántas personas aceptaban, el porcentaje de estudiantes que se graduaban e incluso sus notas medias. Y como el precio de la matrícula no contaba para el ranking, podían permitirse subir los precios y dedicar ese dinero a sus departamentos de marketing. El coste de la educación universitaria aumentó en más de un 500 por ciento entre 1985 y 2013.


Parecía que la meta de las universidades ya no era educar, sino tener la mejor puntuación en el ranking de U.S. News (y hacerse de oro cuando los estudiantes atraídos por la revista empezasen a llegar). Negarse a participar en el circo tampoco era una opción. Si una institución terminaba en los puestos más bajos, se creaba un círculo vicioso que hacía que les fuera más difícil escalar puestos y como el ranking era la Biblia, menos jóvenes decidían estudiar allí.

graduado universidad i did it
Lo consiguieron, pero les regalaron las notas

Lo que más me asusta de esta situación es como perjudica a la educación. Las universidades pueden perfectamente decidir ser menos exigentes en las asignaturas con las que los estudiantes tienen más problemas, como las ciencias o los idiomas. De este modo sus notas suben, haciendo que la universidad parezca exitosa. La parte mala, claro, es que las futuras generaciones de científicos solo tendrán una ligera idea de lo que están haciendo, creando un círculo vicioso. ¿Pero es que nadie va a pensar en los niños?


Esto es un ejemplo, solo uno, de un modelo que cambió el comportamiento de universidades americanas y cuyos efectos ya son catastróficos. Hay muchos más ejemplos con similar y mayor alcance. Da miedo, ¿verdad?


¿Sabéis lo que más me fastidia a mí? La filosofía de todo esto. En La cuestión de la técnica, Heidegger dijo que debido a una malinterpretación conceptual, las personas vemos la tecnología como un instrumento para liberar y extraer la energía que tiene la naturaleza. La tecnología es un medio para conseguir un fin, pero también lo es el mundo, que se convierte en nuestra gasolinera, donde solo paramos para repostar. Y el peligro es que no solo el mundo es nuestro para explotarlo y almacenar su energía, también nuestra existencia se rige por esos términos, aunque no nos demos cuenta. Así muy en general y muy resumido, que si nunca habéis leído a Heidegger os recomiendo unas droguitas antes de poneros con Ser y Tiempo.


Lo que quiero resaltar de esto es el concepto de lógica instrumental de Heidegger. Cuando reducimos el mundo a lo que podemos obtener de él, estamos usando lógica instrumental. Esta lógica también resulta ser muy parecida a la que usamos en los modelos matemáticos por los que se rigen nuestras IAs. Nuestras tecnologías funcionan por objetivos, sus variables son cuantificables y se centran en eficiencia. Así no es como piensan las personas. Cuando vamos a la universidad, por ejemplo, formamos nuevos vínculos, vivimos experiencias distintas y (con suerte) aprendemos a valernos por nosotros mismos. Puede que esos factores no sean totalmente cuantificables pero contribuyen a “la experiencia universitaria”.


Ahora cosas como contratar, despedir, conceder préstamos o contratar seguros están crecientemente controladas por algoritmos con dudosos parámetros y poco interés en la variable humana. Me asusta pensar que viviremos siempre gobernados por esta lógica instrumental, pero todo apunta a ello. Aunque seamos mucho más que nuestras máquinas, nos hemos empezado a comportar como ellas. Y ahora, como las universidades americanas, no nos podemos permitir no entrar en el juego.


Vistas cortas


Le acabo de pedir a Alexa que me cuente un chiste. Lo ha hecho. Le he dicho que no me ha gustado y ella me contesta que tendrá que comprobar sus circuitos. Entonces le he pedido que me repitiese la broma y en vez de hacerlo, me ha contado un chiste nuevo. Me pasa a menudo cuando le pido que amplíe información sobre algo que ya le he preguntado. No lo recuerda. Claramente solo me escucha para pasarle mi datos personales al señor de Amazon.


No es culpa de Alexa, incluso los chatbot más avanzados fallan al recordar. Mitsuku, considerada la mejor robot conversacional, se mete contigo si le haces la misma pregunta varias veces, pero cuando te ríes de un chiste que te ha contado te pregunta que de qué te estás riendo.



Mitsuku chat bot Twitch
Mitsuku tiene canal de Twitch, y tú no

La creatividad tampoco es uno de los fuertes de las IAs. Aunque lo intenten, están bastante lejos de escribir novelas. Pueden randomizar palabras e interiorizar la gramática de modo que pueden mezclar palabras de Anna Karenina bastante convincentemente, y crear frases interesantes. Pero son bastante limitadas. Como dice David Sumpter: “Mientras que los ordenadores son buenos recolectando grandes números y estadísticas, los humanos somos muy buenos distinguiendo las razones bajo esos números”. Nuestros algoritmos pueden identificar un patrón de comportamiento con suficientes datos. Sin embargo, no pueden entender por qué hacemos lo que hacemos. Por eso es tan peligroso regirse por la lógica que imponen sus números. Y aún así, lo estamos haciendo.


Rendir Cuentas


Nuestros algoritmos tienen un potencial increíble, pero como dicen (como dice el tío de Peter Parker), un gran poder conlleva una gran responsabilidad. Y ahora mismo no hay mucha gente que se responsabilice. Cuando estaba en primero de carrera pensaba que sería muy guay trabajar como asesora de ética en una compañía (nos dijeron que eso existía). Hoy me pregunto cómo fui tan ingenua de pensar que una institución privada usaría una asesoría ética para algo más que lavar su imagen. La posibilidad de hacerse de oro siempre ha llevado al inmediato despliegue de tecnología, con una exploración muy limitada de su impacto a largo plazo. Cuando vengan las consecuencias, lidiarán con ellas si se lo exigen sus gobiernos.


El alcance de la tecnología es tan amplio, y aún así las auditorías son pocas y malas. No estamos responsabilizando ni nuestras tecnologías ni las compañías que las crean. Pero los riesgos son inconmensurables. En el mundo de los macrodatos la igualdad es un sueño del pasado, y la pobreza se convierte en un pozo del que no se sale.

Y lo hemos hecho nosotros: el levantamiento de las máquinas no es como el que nos prometió la ciencia ficción. Como seres humanos, tenemos la capacidad de ver el panorama completo. En vez de eso, a medida que pasa el tiempo me preocupa que nos comportamos más como una máquina, sordos y ciegos, avanzando por inercia y dominados por la lógica instrumental que convierte el mundo en nuestra gasolinera. La revolución de las máquinas no será tecnológica. Es política.



Referencias


Imágenes

David Sumpter, Outnumbered y Brian Snyder para NBC News

4 comments

Recent Posts

See All
bottom of page