lunes, 17 de julio de 2017

CONTINUACION: LA CLASE INUTIL

Cierto: en la actualidad hay muchas cosas que los algoritmos orgánicos hacen mejor que los no orgánicos, y los expertos han declarado repetidamente que algo quedará «siempre» más allá del alcance de los algoritmos no orgánicos. Pero resulta que, a menudo, «siempre» significa apenas una o dos décadas. Hasta hace muy poco, el reconocimiento facial era uno de los ejemplos predilectos de algo que hasta los bebés hacen fácilmente pero que eludía incluso a los ordenadores más potentes del mundo. En la actualidad, los programas de reconocimiento facial son capaces de reconocer a la gente de manera mucho más eficiente y rápida que los humanos. Los cuerpos de policía y los servicios de inteligencia utilizan ahora estos programas para escanear innumerables horas de grabaciones en vídeo procedentes de cámaras de vigilancia para seguir la pista a sospechosos y criminales. En la década de 1980, cuando la gente debatía acerca de la naturaleza única de la humanidad, utilizaban habitualmente el ajedrez como prueba primordial de la superioridad humana. Creían que los ordenadores nunca vencerían a los humanos en el ajedrez. El 10 de febrero de 1996, el Deep Blue de IBM derrotó al campeón mundial de ajedrez Garri Kaspárov, con lo que se puso fin a esta afirmación concreta de la preeminencia humana. Deep Blue recibió una ventaja por parte de sus creadores, que lo pre-programaron no solo con las reglas básicas del ajedrez, sino también con instrucciones detalladas relativas a las estrategias del juego. Una nueva generación de IA prefiere el aprendizaje mediante máquinas para hacer cosas incluso más notables y elegantes. En febrero de 2015, un programa desarrollado por Google DeepMind aprendió por su cuenta a jugar a 49 juegos clásicos de Atari. Uno de los programadores, el doctor Demis Hassabis, explicó que «la única información que dimos al sistema fueron los píxeles en bruto de la pantalla y la idea de que tenía que conseguir una puntuación alta. Y todo lo demás tenía que deducirlo por sí mismo». El programa consiguió aprender las reglas de todos los juegos que se le presentaron, desde Pac-Man y Space Invaders hasta las carreras de coches y los juegos de tenis. Después jugaba la mayoría de ellos tan bien como los humanos o incluso mejor, y a veces daba con estrategias que nunca se les habían ocurrido a jugadores humanos. Los algoritmos informáticos también han demostrado recientemente su valor en juegos de pelota. Durante muchas décadas, los equipos de béisbol emplearon la sabiduría, la experiencia y los instintos viscerales de cazatalentos y directores técnicos profesionales para seleccionar jugadores. Los mejores alcanzaban precios de millones de dólares, y, como es natural, los equipos ricos conseguían la flor y nata del mercado, mientras que los equipos más pobres tenían que conformarse con las sobras. En 2002, Billy Beane, el director técnico del Oakland Athletics, un equipo de bajo presupuesto, decidió vencer al sistema. Se basó en un críptico algoritmo informático desarrollado por economistas y genios informáticos para crear un equipo ganador a partir de jugadores que los cazatalentos humanos habían pasado por alto o habían subestimado. Los veteranos estaban furiosos porque el algoritmo de Beane transgredía las sagradas pautas del béisbol. Decían que seleccionar jugadores de béisbol es un arte, y que solo los humanos con una experiencia larga y profunda del juego pueden dominarlo. Un programa de ordenador nunca podría hacerlo, porque nunca sería capaz de descifrar los secretos y el espíritu del béisbol.
Pronto tuvieron que comerse sus gorras de béisbol. El equipo algorítmico de Beane, con un presupuesto austero (44 millones de dólares), no solo plantó cara a gigantes del béisbol como los Yankees de Nueva York (125 millones de dólares), sino que se convirtió en el primer equipo de la Liga norteamericana en ganar 20 partidos consecutivos. Pero Beane y Oakland no pudieron disfrutar mucho tiempo de su éxito. Enseguida, otros muchos equipos adoptaron el mismo planteamiento algorítmico, y, puesto que los Yankees y los Red Sox podían pagar mucho más tanto por los jugadores como por los programas informáticos, los equipos de presupuesto reducido como los Oakland Athletics tienen ahora incluso menos probabilidades que antes de vencer al sistema.  En 2004, el profesor Frank Levy del MIT y el profesor Richard Murnane de Harvard publicaron un exhaustivo trabajo sobre el mercado laboral en el que se listaban aquellas profesiones que con mayor probabilidad experimentarían automatización. Se ponía el ejemplo de los conductores de camiones como un puesto de trabajo que posiblemente no podría automatizarse en un futuro próximo. Es difícil imaginar, escribieron, que los algoritmos puedan conducir camiones con seguridad en una carretera con mucho tráfico. Solo diez años después, Google y Tesla no solo lo imaginan, sino que lo están haciendo. De hecho, a medida que pasa el tiempo, resulta cada vez más fácil sustituir a los humanos con algoritmos informáticos, no solo porque los algoritmos son cada vez más inteligentes, sino también porque los humanos se profesionalizan. Los antiguos cazadores-recolectores dominaban una amplia variedad de habilidades para sobrevivir, razón por la que sería inmensamente difícil diseñar un cazador-recolector robótico. Dicho robot tendría que saber hacer puntas de lanza a partir de pedernales, encontrar setas comestibles en un bosque, seguir la pista de un mamut, coordinar un ataque con una docena de cazadores más y después utilizas hierbas medicinales para curar las posibles heridas. Sin embargo, a lo largo de los últimos miles de años, los humanos nos hemos ido especializando. Un taxista o un cardiólogo se especializan en un ámbito mucho más estrecho que un cazador-recolector, lo que hace que sea más fácil sustituirlos con IA. Incluso los directores a cargo de todas estas actividades pueden ser sustituidos. Gracias a sus potentes algoritmos, Uber es capaz de gestionar a millones de taxistas con solo un puñado de humanos. La mayoría de las órdenes las dan los algoritmos sin necesidad alguna de supervisión humana.  En mayo de 2014, Deep Knowledge Ventures, una empresa de capital riesgo de Hong Kong especializada en medicina regenerativa, abrió un nuevo ámbito al designar a un algoritmo llamado VITAL en su consejo directivo. VITAL efectúa recomendaciones de inversión después de analizar enormes cantidades de datos de la situación financiera, ensayos clínicos y propiedad intelectual de compañías potenciales. Al igual que los otros cinco miembros del consejo, el algoritmo tiene derecho a voto en la decisión de la empresa de invertir o no en una determinada compañía. Al examinar la actuación de VITAL hasta ahora, parece que ya ha adquirido uno de los vicios de los directores generales: el nepotismo. Ha recomendado invertir en compañías que conceden más autoridad a los algoritmos. Por ejemplo, con la bendición de VITAL, Deep Knowledge Ventures ha invertido recientemente en Pathway Pharmaceuticals, que emplea un algoritmo llamado OncoFinder para seleccionar y evaluar terapias personalizadas contra el cáncer.  A medida que los algoritmos expulsen a los humanos del mercado laboral, la riqueza podría acabar concentrada en manos de la minúscula élite que posea los todopoderosos algoritmos, generando así una desigualdad social y política sin precedentes. Alternativamente, los algoritmos podrían no solo dirigir empresas, sino también ser sus propietarios. En la actualidad, la ley humana ya reconoce entidades intersubjetivas, como empresas y naciones, como «personas legales». Aunque Toyota o Argentina no tengan cuerpo ni mente, se hallan sujetas a las leyes internacionales, pueden poseer tierras y dinero, y demandar y ser demandadas en los tribunales. Pronto podríamos conceder un estatus similar a los algoritmos. Un algoritmo podría entonces poseer un fondo de capital riesgo sin tener que obedecer los dictados de ningún patrón humano. Si el algoritmo toma las decisiones adecuadas, podría acumular una fortuna, que después podría invertir como creyera conveniente, quizá comprando nuestra casa y convirtiéndose en nuestro casero. Si infringimos los derechos legales del algoritmo (por no pagar el alquiler, pongamos por caso), este podría contratar a abogados y llevarnos ante los tribunales. Si tales algoritmos rinden mejor que los capitalistas humanos de manera continuada, podríamos terminar con una clase alta algorítmica que poseyera la mayor parte de nuestro planeta. Quizá esto parezca imposible, pero antes de descartar la idea, recuerde el lector que la mayor parte de nuestro planeta ya es propiedad legal de entidades intersubjetivas no humanas, es decir, naciones y compañías. De hecho, hace cinco mil años, la mayor parte de Sumeria era propiedad de dioses imaginarios como Enki e Inanna. Si los dioses pueden poseer tierras y emplear a personas, ¿por qué no los algoritmos? ¿Y qué hará la gente? A menudo se dice que el arte nos proporciona nuestro último (y únicamente humano) santuario. En un mundo en el que los ordenadores sustituyen a médicos, conductores de vehículos, profesores e incluso caseros, todos podrán hacerse artistas. Pero es difícil ver por qué la creación artística se hallará a salvo de los algoritmos. ¿Por qué estamos tan seguros de que los ordenadores no podrán hacerlo mejor que nosotros en la composición de música? Según las ciencias de la vida, el arte no es el producto de algún espíritu encantado o de un alma metafísica, sino de algoritmos orgánicos que reconocen pautas matemáticas. Si es así, no hay razón por la que algoritmos no orgánicos no puedan dominar el arte. David Cope es profesor de musicología en la Universidad de California en Santa Cruz. También es una de las figuras más polémicas del mundo de la música clásica. Cope ha elaborado programas que componen conciertos, corales, sinfonías y óperas. Su primera creación se llamaba EMI (Experimentos en Inteligencia Musical), especializada en imitar el estilo de Johann Sebastian Bach. Le llevó siete años crear el programa, pero cuando el trabajo estuvo hecho, EMI compuso 5000 corales al estilo de Bach en un solo día. Cope organizó una exhibición de algunas corales seleccionadas en un festival de música en Santa Cruz. Miembros entusiastas del público alabaron el maravilloso concierto y afirmaron apasionadamente que la música les había llegado a lo más hondo. No sabían que la había compuesto EMI y no Bach, y cuando se reveló la verdad, algunos reaccionaron con un silencio taciturno, mientras que otros gritaron airados. EMI continuó mejorando y aprendió a imitar a Beethoven, Chopin, Rajmáninov y Stravinski. Cope consiguió un contrato para EMI, y su primer álbum (Classical Music Composed by Computer) se vendió sorprendentemente bien. La publicidad provocó que la hostilidad de los aficionados a la música clásica aumentara. El profesor Steve Larson, de la Universidad de Oregón, lanzó un reto a Cope para llevar a cabo una confrontación musical. Larson sugirió que pianistas profesionales interpretaran tres piezas, una a continuación de la otra: una de Bach, una de EMI y una del propio Larson. Después, se pediría al público que adivinase quién había compuesto cada pieza. Larson estaba convencido de que la gente advertiría fácilmente la diferencia entre las conmovedoras composiciones humanas y la exánime creación de una máquina. Cope aceptó el reto. En la fecha señalada, centenares de profesores, estudiantes y aficionados a la música se reunieron en la sala de conciertos de la Universidad de Oregón. Al final de la actuación votaron. ¿El resultado? El público creía que la pieza de EMI era genuina de Bach, que la de Bach la había compuesto Larson y que la de Larson la había producido un ordenador. Los críticos han seguido diciendo que la música de EMI es excelente desde el punto de vista técnico, pero que le falta algo. Es demasiado precisa. No tiene profundidad. No tiene alma. Pero cuando la gente oye sus composiciones sin que se la informe de su procedencia, suelen alabarla precisamente por su ternura y su resonancia emocional. Después de los éxitos de EMI, Cope creó nuevos programas aún más refinados. Su logro supremo fue Annie. Mientras EMI componía música según reglas predeterminadas, Annie se basa en el aprendizaje mediante una máquina. Su estilo musical cambia constantemente y se desarrolla en reacción a nuevos estímulos externos. Cope no tiene idea de lo que Annie compondrá. En realidad, Annie no se limita a la composición musical, sino que también explora otras formas de arte, como los haikus. En 2011, Cope publicó Comes the Fiery Night: 2,000 Haiku by Man and Machine. De los 2000 haikus del libro, algunos los escribió Annie y el resto son de poetas orgánicos. El libro no desvela quién escribió qué. Si el lector cree que puede apreciar la diferencia entre la creatividad humana y el resultado de la máquina, es libre de comprobarlo.[18] En el siglo XIX, la revolución industrial dio lugar a una enorme clase nueva de proletariado urbano, y el socialismo se extendió porque nadie había conseguido gestionar las necesidades, esperanzas y temores, hasta entonces desconocidos, de esta nueva clase obrera. Finalmente, el liberalismo consiguió derrotar al socialismo al adoptar las mejores partes del programa socialista. En el siglo XXI podemos asistir a la creación de una nueva y masiva clase no trabajadora: personas carentes de ningún valor económico, político o incluso artístico, que no contribuyen en nada a la prosperidad, al poder y a la gloria de la sociedad. Esta «clase inútil» no solo estará desempleada: será inempleable. En septiembre de 2013, dos investigadores de Oxford, Carl Benedikt Frey y Michael A. Osborne, publicaron el informe The Future of Employment, en el que exploraban la probabilidad de que diferentes profesiones quedaran a cargo de algoritmos informáticos a lo largo de los veinte años siguientes. El algoritmo que desarrollaron Frey y Osborne para hacer los cálculos estimó que el 47 por ciento de los puestos de trabajo de Estados Unidos corren un riesgo elevado. Por ejemplo, hay un 99 por ciento de probabilidades de que en 2033 los tele-vendedores y los agentes de seguros humanos pierdan su puesto de trabajo, que será ocupado por algoritmos. Hay un 98 por ciento de probabilidades de que lo mismo ocurra con los árbitros deportivos, un 97 por ciento de que les ocurra a los cajeros, y el 96 por ciento de que les ocurra a los chefs. Camareros: 94 por ciento. Procuradores: 94 por ciento. Guías de viajes organizados: 91 por ciento. Panaderos: 89 por ciento. Conductores de autobús: 89 por ciento. Obreros de la construcción: 88 por ciento. Ayudantes de veterinario: 86 por ciento. Guardias de seguridad: 84 por ciento. Marineros: 83 por ciento. Camareros: 77 por ciento. Archiveros: 76 por ciento. Carpinteros: 72 por ciento. Socorristas: 67 por ciento. Y así sucesivamente. Desde luego, hay algunos empleos seguros. La probabilidad de que en 2033 los algoritmos informáticos desplacen a los arqueólogos es de solo el 0,7 por ciento, porque su trabajo requiere tipos de reconocimiento de pautas muy refinados, y no produce grandes beneficios. De ahí que sea improbable que las empresas o el gobierno inviertan lo necesario para automatizar la arqueología en los próximos veinte años.  Naturalmente, para cuando llegue el año 2033, es probable que hayan aparecido muchas profesiones nuevas, por ejemplo, la de diseñador de mundos virtuales. Pero es también probable que dichas profesiones requieran mucha más creatividad y flexibilidad que nuestros empleos corrientes, y no está claro que las cajeras o los agentes de seguros de cuarenta años sean capaces de reinventarse como diseñadores de mundos virtuales (¡imagine el lector un mundo virtual creado por un agente de seguros!). E incluso si lo hacen, el ritmo del progreso es tal que en otra década podrían tener que reinventarse de nuevo. Después de todo, bien pudiera ser que los algoritmos también superen a los humanos en el diseño de mundos virtuales. El problema crucial no es crear nuevos empleos. El problema crucial es crear nuevos empleos en los que los humanos rindan mejor que los algoritmos. Es posible que la prosperidad tecnológica haga viable alimentar y sostener a las masas inútiles incluso sin esfuerzo alguno por parte de estas. Pero ¿qué las mantendrá ocupadas y satisfechas? Las personas tendrán que hacer algo o se volverán locas. ¿Qué harán durante todo el día? Una solución la podrían ofrecer las drogas y los juegos de ordenador. Las personas innecesarias podrían pasar una cantidad de tiempo cada vez mayor dentro de mundos tridimensionales de realidad virtual, que les proporcionarían mucha más emoción y compromiso emocional que la gris realidad exterior. Pero esta situación asestaría un golpe mortal a la creencia liberal en el carácter sagrado de la vida y de las experiencias humanas. ¿Qué hay de sagrado en holgazanes inútiles que se pasan el día devorando experiencias artificiales? Algunos expertos y pensadores, como Nick Bostrom, advierten que es improbable que la humanidad padezca dicha degradación, porque cuando la inteligencia artificial supere a la inteligencia humana, sencillamente, exterminará a la humanidad. Es probable que esto lo haga la IA ya sea por miedo de que la humanidad se vuelva contra ella e intente cerrarle el grifo, ya sea en busca de algún objetivo insondable propio. Porque sería muy difícil que los humanos controlaran la motivación de un sistema más inteligente que ellos. Incluso pre-programar el sistema con objetivos aparentemente benignos podría resultar horriblemente contraproducente. Una situación hipotética popular imagina que una empresa diseña la primera super-inteligencia artificial y la pone a prueba de manera inocente: le hace calcular pi. Antes de que nadie se dé cuenta de lo que está sucediendo, la IA se apodera del planeta, elimina a la raza humana, emprende una campaña de conquista hasta los confines de la galaxia y transforma todo el universo conocido en un superordenador gigantesco que, a lo largo de miles de millones de años, calcula pi cada vez con mayor precisión. Después de todo, esta es la misión divina que su Creador le dio.


LA CLASE INUTIL

El dilema más importante en la economía del siglo XXI bien pudiera ser qué hacer con toda la gente superflua. ¿Qué harán los humanos conscientes cuando tengamos algoritmos no conscientes y muy inteligentes capaces de hacer casi todo mejor? A lo largo de la historia, el mercado laboral se dividió en tres sectores principales: agricultura, industria y servicios. Hasta cerca de 1800, la inmensa mayoría de la gente trabajaba en la agricultura, y solo una pequeña minoría lo hacía en la industria y los servicios. Durante la revolución industrial, la gente de los países desarrollados abandonó campos y rebaños. La mayoría empezaron a trabajar en la industria, pero un número creciente consiguió también trabajo en el sector de los servicios. En décadas recientes, los países desarrollados han experimentado otra revolución al ir desapareciendo los empleos industriales y expandiéndose el sector de los servicios. En 2010, solo el 2 por ciento de los estadounidenses trabajaban en la agricultura; el 20 por ciento trabajaban en la industria, y el 78 por ciento, como profesores, médicos, diseñadores de páginas web, etcétera. Cuando los algoritmos sin mente sean capaces de enseñar, diagnosticar y diseñar mejor que los humanos, ¿qué haremos? Esta no es una pregunta del todo nueva. Ya desde que estalló la revolución industrial, la gente temía que la mecanización pudiera provocar desempleo masivo. Esto no llegó a ocurrir, porque a medida que las antiguas profesiones quedaban obsoletas, aparecían otras, y siempre había algo que los humanos podían hacer mejor que las máquinas. Pero esta no es una ley de la naturaleza, y nada garantiza que la cosa siga siendo así en el futuro. Los humanos tienen dos tipos básicos de capacidades: capacidades físicas y capacidades cognitivas. Mientras las máquinas solo competían con nosotros en capacidades físicas, siempre fue posible encontrar tareas cognitivas que los humanos hiciesen mejor. Así, las máquinas quedaron a cargo de tareas puramente manuales, mientras que los humanos se centraban en tareas que requerían al menos algunas habilidades cognitivas. Pero ¿qué ocurrirá cuando los algoritmos sean mejores que nosotros recordando, analizando y reconociendo pautas? La idea de que los humanos siempre tendrán una capacidad única fuera del alcance de los algoritmos no conscientes es solo una ilusión. La respuesta científica actual a este sueño imposible puede resumirse en tres principios sencillos:
1. Los organismos son algoritmos. Todo animal (Homo sapiens incluido) es un conjunto de algoritmos orgánicos modelados por la selección natural a lo largo de millones de años de evolución.
2. Los cálculos algorítmicos no se resienten de los materiales con los que se fabrica una calculadora. Ya hagamos el ábaco con madera, hierro o plástico, dos cuentas más dos cuentas es igual a cuatro cuentas.
3. De ahí que no haya razón para pensar que los algoritmos orgánicos vayan a ser capaces en el futuro de hacer cosas que los algoritmos no orgánicos nunca conseguirán replicar o superar. Mientras los cálculos sigan siendo válidos, ¿qué importa que los algoritmos se manifiesten en carbono o en silicio?


De oráculo a soberano

De oráculo a soberano
Cuando Google, Facebook y otros algoritmos se conviertan en oráculos omniscientes, bien podrían evolucionar para convertirse en representantes y finalmente en soberanos. Para comprender esta trayectoria, considérese el caso de Waze, una aplicación de navegación basada en el GPS que muchos conductores emplean en la actualidad. Sin embargo, Waze no es solo un mapa. Sus millones de usuarios lo actualizan constantemente con información sobre atascos, accidentes y presencia de coches policiales. De ahí que Waze sepa desviarnos del tráfico intenso y llevarnos hasta nuestro destino por la ruta más rápida posible. Cuando llegamos a un cruce y nuestro instinto nos dice que giremos a la derecha pero Waze nos indica que giremos a la izquierda, los usuarios más tarde o más temprano aprenden que es mejor hacer caso a Waze y no a sus sensaciones. A primera vista parece que el algoritmo de Waze nos sirve solo como oráculo. Le hacemos una pregunta, el oráculo contesta, pero somos nosotros los que tenemos que tomar la decisión. Sin embargo, si el oráculo se gana nuestra confianza, el siguiente paso lógico es convertirlo en un representante. Damos al algoritmo solo un objetivo último, y él actúa para alcanzar dicho objetivo sin nuestra supervisión. En el caso de Waze, esto puede suceder cuando lo conectamos a un coche automático y le decimos: «Toma la ruta más rápida hasta casa» o «Toma la ruta más pintoresca», o «Toma la ruta con la que contamine menos». Nosotros dirigimos la orquesta, pero dejamos que sea Waze quien ejecute nuestras órdenes. Finalmente, Waze podría convertirse en soberano. Al tener tanto poder en sus manos y saber mucho más que nosotros, podría empezar a manipularnos, modelando nuestros deseos y tomando decisiones por nosotros. Por ejemplo, supongamos que, debido a que Waze es bueno, todo el mundo empieza a usarlo. Y supongamos que hay un atasco en la carretera n.º 1, mientras que la carretera n.º 2 está relativamente despejada. Si Waze deja que todos lo sepan, todos los conductores se dirigirán a la carretera n.º 2, y también esta quedará congestionada. Cuando todo el mundo emplea el mismo oráculo y todo el mundo cree en él, el oráculo se transforma en un soberano. De modo que Waze debe pensar por nosotros. Quizá solo informe a la mitad de los conductores de que la carretera n.º 2 está despejada y oculta dicha información a la otra mitad. De esta forma, la congestión se aliviará en la carretera n.º 1 sin bloquear la n.º 2. Microsoft está desarrollando un sistema mucho más sofisticado llamado Cortana, nombre que procede de un personaje de IA de su popular serie de videojuegos Halo. Cortana es un asistente personal de IA que Microsoft espera incluir como característica integral en futuras versiones de Windows. Se animará a los usuarios a que permitan que Cortana acceda a todos sus archivos, correos electrónicos y aplicaciones para conocerlos bien y poder ofrecer consejo sobre multitud de cuestiones, así como convertirse en un agente virtual que represente los intereses del usuario. Cortana podría recordarnos que compremos algo para el cumpleaños de nuestra esposa, elegir el regalo, reservar una mesa en el restaurante y recordarnos que tenemos que tomar el medicamento una hora antes de la cena. Podría recordarnos que si no dejamos de leer ahora, llegaremos tarde a una importante reunión de negocios. Cuando estemos a punto de entrar en la reunión, Cortana nos advertirá de que nuestra tensión arterial es demasiado elevada y nuestro nivel de dopamina demasiado bajo, y, basándose en estadísticas anteriores, nos recordará que en tales circunstancias solemos cometer graves errores comerciales, de modo que será mejor que mantengamos las cosas indefinidas y evitemos comprometernos o firmar ningún acuerdo. Cuando los Cortana evolucionen de oráculos a representantes, podrían empezar a hablarse directamente entre sí, en nombre de sus dueños. Esto podría empezar de manera muy inocente, cuando mi Cortana contacte con el tuyo para acordar un lugar y una fecha de reunión. Al poco tiempo, un empresario podría decirme que no me moleste en enviarle mi currículum, sino que sencillamente deje que su Cortana pregunte a mi Cortana. O el Cortana de un amante potencial podría acercarse a mi Cortana, y los dos podrían comparar notas para decidir si haríamos buena pareja… sin que los dueños humanos lo sepamos. A medida que los Cortana adquieran autoridad, podrían empezar a manipularse los unos a los otros en beneficio de los intereses de sus dueños, de modo que el éxito en el mercado laboral o en el matrimonial podría depender cada vez más de la calidad de nuestro Cortana. La gente rica que posea el Cortana más actualizado tendría una ventaja decisiva sobre la gente pobre con versiones más antiguas. Pero la cuestión más turbia de todas se refiere a la identidad del dueño del Cortana. Tal como hemos visto, los humanos no son individuos y no poseen un único yo unificado. Así, pues, ¿a qué intereses servirá Cortana? Supongamos que mi yo narrador toma en Año Nuevo la decisión de empezar a hacer dieta y a ir al gimnasio a diario. Una semana después, cuando llega la hora de ir al gimnasio, el yo experimentador le dice al Cortana que conecte el televisor y pida una pizza. ¿Qué tendrá que hacer el Cortana? ¿Tendrá que obedecer al yo experimentador o a la decisión que una semana antes tomó el yo narrador? El lector podría preguntar si Cortana es realmente diferente de un reloj despertador que el yo narrador programa por la noche para despertar al yo experimentador con tiempo suficiente de llegar puntual al trabajo. Pero Cortana tendrá mucho más poder sobre mí que un reloj despertador. El yo experimentador puede silenciar el despertador con solo pulsar un botón. En cambio, Cortana me conocerá tan bien que sabrá exactamente qué botones internos pulsar para hacer que yo siga su «consejo». El Cortana de Microsoft no está solo en este juego. Now, de Google, y Siri, de Apple, apuntan en la misma dirección. También Amazon emplea algoritmos que nos estudian constantemente y usan su conocimiento para recomendar productos. Cuando voy a una librería física, deambulo entre las estanterías y confío en mis sensaciones para escoger el libro adecuado. Cuando voy a la tienda virtual de Amazon, aparece inmediatamente un algoritmo que me dice: «Sé qué libros te gustaron en el pasado. A personas con gustos similares también les gusta este o aquel libro». ¡Maravilloso! Y esto es solo el principio. Hoy en día, en Estados Unidos, hay más gente que lee libros digitales que volúmenes impresos. Dispositivos como el Kindle de Amazon pueden acopiar datos de sus usuarios mientras estos leen el libro. Por ejemplo, nuestro Kindle puede supervisar qué partes del libro leemos deprisa y cuáles despacio, en qué página hicimos una pausa, y en qué frase abandonamos el libro y no volvimos a abrirlo. (Será mejor decirle al autor que reescriba ese fragmento). Si el Kindle se mejora con reconocimiento facial y sensores biométricos, podrá saber cómo influyó cada frase que leímos en nuestro ritmo cardíaco y tensión arterial. Podrá saber qué nos hizo reír, qué nos entristeció y qué nos enfureció. Pronto los libros nos leerán mientras los leemos. Y mientras nosotros olvidamos rápidamente la mayor parte de lo que leímos, Amazon nunca olvidará nada. Dichos datos le permitirán elegir libros para el lector con pasmosa precisión. También le permitirá saber con exactitud quiénes somos, y cómo conectarnos y desconectarnos. Al final, podríamos llegar a un punto en el que fuera imposible desconectarnos de esta red omnisciente, ni siquiera por un momento. La desconexión significará la muerte. Si las expectativas médicas se hacen realidad, la gente del futuro incorporará a su cuerpo una serie de dispositivos biométricos, órganos biónicos y nanorrobots que supervisarán su salud y la defenderán de infecciones, enfermedades y lesiones. Pero estos dispositivos tendrán que estar permanentemente conectados a la red, tanto para actualizarlos con las últimas noticias médicas como para protegerlos de las nuevas plagas del ciberespacio. De la misma manera que mi ordenador casero sufre ataques constantes de virus, gusanos y troyanos, lo mismo le ocurrirá a mi marcapasos, a mi audífono y a mi sistema inmunitario nanotecnológico. Si no actualizo regularmente el programa antivirus de mi cuerpo, un día me despertaré y descubriré que los millones de nanorrobots que recorren mis venas están ahora controlados por un pirata informático norcoreano. Así, las nuevas tecnologías del siglo XXI podrían invertir la revolución humanista, despojando a los humanos de su autoridad y confiriendo en cambio poderes a algoritmos no humanos. Si al lector le horroriza esta deriva, no culpe a los frikis de los ordenadores. En realidad, la responsabilidad es de los biólogos. Es crucial darse cuenta de que toda esta tendencia está más impulsada por descubrimientos biológicos que por la ciencia informática. Son las ciencias de la vida las que han llegado a la conclusión de que los organismos son algoritmos. Si este no es el caso, si los organismos funcionan de una manera intrínsecamente diferente a la de los algoritmos, entonces los ordenadores podrán obrar maravillas en otros ámbitos, pero no serán capaces de comprendernos ni de dirigir nuestra vida, y ciertamente serán incapaces de fusionarse con nosotros. Pero cuando los biólogos llegaron a la conclusión de que los organismos son algoritmos, desmantelaron el muro que separaba lo orgánico de lo inorgánico; transformaron la revolución informática, que pasó de ser un asunto simplemente mecánico a un cataclismo biológico, y transfirieron la autoridad de los individuos humanos a los algoritmos conectados en red. Algunas personas están ciertamente horrorizadas por esta situación, pero el hecho es que hay millones que la aceptan de buen grado. Hoy en día, en realidad, somos muchos los que cedemos nuestra privacidad y nuestra individualidad, publicamos todo lo que hacemos, vivimos conectados a la red y nos ponemos histéricos si la conexión se interrumpe aunque sea solo unos minutos. La transferencia de la autoridad de los humanos a los algoritmos se está dando a nuestro alrededor, no como resultado de alguna decisión gubernamental crucial, sino debido a una avalancha de decisiones mundanas. El resultado no será un estado policiaco orwelliano. Siempre nos preparamos para el último enemigo, aun cuando nos enfrentamos a una amenaza totalmente nueva. Los defensores de la individualidad humana hacen guardia frente a la tiranía del colectivo, sin darse cuenta de que la individualidad humana está ahora amenazada desde la dirección opuesta. El individuo no será aplastado por el Gran Hermano: se desintegrará desde dentro. Hoy, la mayoría de las empresas y los gobiernos rinden homenaje a mi individualidad, y prometen proporcionar medicina, educación y diversión personalizadas, adaptadas a mis necesidades y deseos únicos. Pero para poder llegar a hacerlo, empresas y gobiernos necesitan antes descomponerme en subsistemas bioquímicos, supervisar dichos subsistemas con sensores ubicuos y descifrar su funcionamiento por medio de potentes algoritmos. En el proceso se revelará que el individuo no es más que una fantasía religiosa. La realidad será una malla de algoritmos bioquímicos y electrónicos sin fronteras claras, y sin núcleos individuales.

martes, 27 de junio de 2017

La bomba de tiempo en el laboratorio
En 2016, el mundo está dominado por el paquete liberal del individualismo, los derechos humanos, la democracia y el mercado libre. Pero la ciencia del siglo XXI socava los cimientos del orden liberal. Puesto que la ciencia no aborda cuestiones de valor, no puede determinar si los liberales hacen bien en valorar más la libertad que la igualdad, o al individuo más que al colectivo. Sin embargo, como cualquier otra religión, el liberalismo también se basa en lo que considera declaraciones fácticas u objetivas, además de en juicios éticos abstractos. Y estas declaraciones fácticas sencillamente no resisten el escrutinio científico riguroso. Los liberales valoran tanto la libertad individual por-que creen que los humanos tienen libre albedrío. Según el liberalismo, las decisiones de votantes y clientes no son deterministas ni aleatorias. La gente está, desde luego, influida por fuerzas externas y acontecimientos azarosos, pero al final del día cada uno puede agitar la varita mágica de la libertad y decidir las cosas por sí mismo. Esta es la razón por la que el liberalismo concede tanta importancia a votantes y clientes, y nos enseña a seguir los dictados de nuestro corazón y a hacer lo que hace que nos sintamos bien. Es nuestro libre albedrío lo que infunde sentido al universo, y, puesto que ningún desconocido puede saber cómo nos sentimos en verdad o predecir con seguridad nuestras decisiones, no debemos confiar en ningún Gran Hermano que se ocupe de nuestros intereses y deseos. Atribuir libre albedrío a los humanos no es un juicio ético: pretende ser una descripción fáctica del mundo. Si bien esta llamada descripción fáctica podría haber tenido sentido en la época de Locke, Rousseau y Thomas Jefferson, no concuerda muy bien con los más recientes descubrimientos de las ciencias de la vida. La contradicción entre libre albe-drío y ciencia contemporánea es el elefante en el laboratorio, al que muchos prefieren no ver mientras miran por sus microscopios y sus escáneres fMRI. En el siglo XVIII, Homo sapiens era como una misteriosa caja negra, cuyos mecanismos internos trascendían a nuestra comprensión. De ahí que cuando los estudiosos preguntaban por qué un hombre empuña un cuchillo y apuña-la a otro hasta matarlo, una respuesta aceptable era: «Porque decide hacer-lo. Utiliza su libre albedrío para elegir el asesinato, por lo que es totalmente responsable de su crimen». A lo largo del último siglo, a medida que los cien-tíficos abrían la caja negra de los sapiens, fueron descubriendo que allí no ha-bía alma, ni libre albedrío, ni «yo»…, sino solo genes, hormonas y neuronas que obedecen las mismas leyes físicas y químicas que rigen el resto de la rea-lidad. Hoy en día, cuando los estudiosos se preguntan por qué un hombre empuña un cuchillo y apuñala a alguien hasta matarlo, responder: «Porque decide hacerlo» ya no sirve. En lugar de ello, genetistas y neuro-científicos proporcionan una respuesta mucho más detallada: «Lo hace debido a tales o cuales procesos electroquímicos que tienen lugar en el cerebro que fueron modelados por una determinada constitución genética, que a su vez refleja antiguas presiones evolutivas emparejadas con mutaciones aleatorias». Los procesos electroquímicos cerebrales que culminan en un asesinato son deterministas o aleatorios o una combinación de ambos, pero nunca son libres. Por ejemplo, cuando una neurona dispara una carga eléctrica, ello puede ser una reacción determinista a estímulos externos o el resultado de un acontecimiento aleatorio, como la descomposición espontánea de un átomo radiactivo. Ninguna de las dos opciones deja margen alguno para el libre albedrío. Las decisiones que se alcanzan a través de una reacción en cadena de sucesos bioquímicos, cada uno de ellos determinado por un suceso previo, no son ciertamente libres. Las decisiones que son el resultado de accidentes subatómicos aleatorios tampoco son libres. Son, simplemente, fruto del azar. Y cuando accidentes aleatorios se combinan con procesos deterministas, tenemos resultados probabilistas, pero esto no equivale a libertad. Supongamos que fabricamos un robot cuya unidad central de procesamiento está conectada a una masa de uranio radiactivo. Cuando elige entre dos opciones (pulsar el botón de la derecha o el de la izquierda, pongamos por caso), el robot cuenta el número de átomos de uranio que se desintegraron durante el minuto anterior. Si el número es par, pulsa el botón de la derecha. Si el número es impar, el de la izquierda. Nunca podremos estar seguros de los actos de un robot así. Pero nadie calificará de «libre» a este artilugio, y ni soñaríamos con permitirle votar en unas elecciones democráticas o en responsabilizarle legalmente de sus actos. Hasta donde llega nuestro conocimiento científico, el determinismo y la aleatoriedad se han repartido todo el pastel y no han dejado ni una migaja a la «libertad». La palabra sagrada «libertad» resulta ser, al igual que «alma», un término vacuo que no comporta ningún significado discernible. El libre albedrío existe únicamente en los relatos imaginarios que los humanos hemos inventado. El último clavo en el ataúd de la libertad lo proporciona la teoría de la evolución. De la misma manera que la evolución no puede armonizar con almas eternas, tampoco puede tragarse la idea del libre albedrío. Porque si los humanos son libres, ¿cómo pudo haberlos modelado la selección natural? Según la teoría de la evolución, todas las decisiones que los animales toman (ya se refieran a residencia, alimento o pareja reproductiva) reflejan su código genético. Si, gracias a sus genes adecuados, un animal elige comer una seta nutritiva y copular con parejas sanas y fecundas, sus genes pasan a la generación siguiente. Si, debido a genes inadecuados, un animal elige setas venenosas y parejas anémicas, sus genes se extinguen. Sin embargo, si un animal elige «libremente» qué comer y con quién aparearse, entonces la selección natural se queda sin nada sobre lo que operar. Cuando a la gente se le plantean estas explicaciones científicas, a menudo las apartan e señalan que ellos se sienten libres y actúan según sus propios deseos y decisiones. Es cierto. Los humanos actúan según sus deseos. Si por «libre albedrío» se entiende la capacidad de actuar según nuestros deseos…, entonces sí, los humanos tienen libre albedrío, al igual que los chimpancés, los perros y los loros. Cuando un loro quiere una galletita, come una galletita. Pero la pregunta del millón de euros no es si loros y humanos pueden llevar a término sus deseos íntimos: la pregunta es si, para empezar, pueden elegir sus deseos. ¿Por qué quiere el loro una galletita en lugar de un pepino? ¿Por qué decido matar al pesado de mi vecino en lugar de ofrecerle la otra mejilla? ¿Por qué quiero comprar el coche rojo en lugar del negro? ¿Por qué prefiero votar por los conservadores en lugar de hacerlo por el Partido Laborista? No elijo ninguno de estos deseos. Siento que un deseo concreto aflora en mí porque esta es la sensación que los procesos bioquímicos crean en mi cerebro. Dichos procesos podrían ser deterministas o aleatorios, pero no libres. El lector podría replicar que al menos en el caso de decisiones importantes, como matar al vecino o elegir un gobierno, mi decisión no refleja un sentimiento momentáneo, sino una contemplación larga y razonada de argumentos de peso. Sin embargo, hay muchos trenes posibles de argumentos que yo podría seguir, algunos de los cuales harán que vote a los conservadores, otros que vote a los laboristas, y aún otros que vote UKIP o que, simplemente, me quede en casa. ¿Qué hace que me embarque en un tren de razonamientos y no en otro? En la estación Paddington de mi cerebro puedo verme impelido a tomar un determinado tren de razonamiento por procesos deterministas o bien puedo embarcarme al azar. Pero no elijo «libremente» pensar aquellos pensamientos que me harán votar a los conservadores. No se trata simplemente de hipótesis o especulaciones filosóficas. Hoy en día podemos usar escáneres cerebrales para predecir los deseos y las decisiones de una persona mucho antes de que ella misma sea consciente de ellos. En un experimento en particular, se introduce a la persona en un enorme escáner cerebral y se le da un interruptor para cada mano. Se le dice que pulse uno de los dos siempre que tenga ganas de hacerlo. Los científicos que observan la actividad neural del cerebro pueden predecir qué interruptor pulsará la persona mucho antes de que lo haga, e incluso antes de que esta sea consciente de su intención. Los acontecimientos neurales que tienen lugar en el cerebro y que indican la decisión de la persona empiezan entre unos pocos milisegundos y unos pocos segundos antes de que la persona sea consciente de esta elección. La decisión de pulsar el interruptor derecho o el izquierdo refleja ciertamente la elección de la persona. Pero no es una elección libre. En realidad, nuestra creencia en el libre albedrío es el resultado de una lógica defectuosa. Cuando una reacción bioquímica en cadena hace que yo desee pulsar el interruptor de la derecha, siento que realmente quiero pulsar el interruptor de la derecha. Y es verdad. Realmente quiero pulsarlo. Pero la gente saca erróneamente la conclusión de que si quiero pulsarlo es porque elegí querer pulsarlo. Esto es, desde luego, falso. Yo no elijo mis deseos. Solo los siento, y actúo en consecuencia. No obstante, la gente sigue discutiendo sobre el libre albedrío porque incluso los científicos continúan usando con demasiada frecuencia conceptos teológicos obsoletos. Teólogos cristianos, musulmanes y judíos debatieron durante siglos las relaciones entre el alma y el albedrío. Suponían que cada humano posee una esencia interna e íntima (llamada alma) que es mi yo verdadero. Mantenían además que este yo posee varios deseos, de la misma manera que posee vestidos, vehículos y casas. Presuntamente, yo elegía mis deseos de la misma manera que elegía mis vestidos, y mi sino está determinado por estas elecciones. Si elijo buenos deseos, voy al cielo. Si elijo malos deseos, me envían al infierno. Y entonces surgió la pregunta: ¿cómo elijo exactamente mis deseos? Por ejemplo, ¿por qué Eva deseó comer el fruto prohibido que le ofreció la serpiente? ¿Se la obligó a tener este deseo? ¿Surgió en ella por pura casualidad? ¿O bien lo eligió ella «libremente»? Si no lo eligió libremente, ¿por qué castigarla por ello? Sin embargo, cuando aceptamos que no hay alma y que los humanos no tienen una esencia interna llamada «el yo», ya no tiene sentido preguntar: «¿Cómo elige el yo sus deseos?». Es como preguntarle a un soltero: «¿Cómo elige la ropa tu esposa?». En realidad, solo hay una corriente de conciencia, y los deseos surgen y transcurren dentro de dicha corriente, pero no hay un yo permanente que posea los deseos, de modo que no tiene sentido preguntar si elijo mis deseos de manera determinista, aleatoria o libre. Puede parecer muy complicado, pero es sorprendentemente fácil comprobar esta idea. La próxima vez que surja un pensamiento en la mente del lector, deténgase y pregúntese: «¿Por qué he pensado este pensamiento concreto? ¿He decidido hace un minuto pensar este pensamiento y solo entonces lo he pensado? ¿O simplemente ha surgido de mi mente, sin mi permiso o mi instrucción? Si soy realmente dueño de mis pensamientos y decisiones, ¿puedo decidir no pensar absolutamente nada en los próximos sesenta segundos?». Pruébelo, y vea qué ocurre.

Dudar del libre albedrío no es solo un ejercicio filosófico. Tiene implicaciones prácticas. Si los organismos en verdad carecen de libre albedrío, ello implica que podemos manipular e incluso controlar sus deseos mediante el uso de drogas, ingeniería genética y estimulación directa del cerebro. Si el lector quiere ver la filosofía en acción, haga una visita a un laboratorio de robot-ratas. Una robot-rata es una rata común y corriente con una pequeña variación: tienen en las áreas sensoriales y de recompensa del cerebro electrodos implantados por científicos. Esto permite a los mismos manipular a la rata por control remoto. Tras breves sesiones de entrenamiento, los investigadores han conseguido no solo que las ratas giren a la izquierda o a la derecha, sino también que suban escaleras, olisqueen alrededor de montones de basura y hagan cosas que normalmente a las ratas no les gusta hacer, como saltar desde grandes alturas. Ejércitos y empresas muestran un gran interés por las roborratas, con la esperanza de que puedan resultar útiles en muchas tareas y situaciones. Por ejemplo, podrían ayudar a detectar supervivientes atrapados bajo los escombros de un edificio, localizar bombas y trampas escondidas y cartografiar túneles subterráneos y cuevas. Los activistas defensores del bienestar animal han hecho oír su preocupación sobre el sufrimiento que tales experimentos pueden provocar en las ratas. El profesor Sanjiv Talwar de la Universidad Estatal de Nueva York, uno de los principales investigadores de roborratas, ha desechado tales preocupaciones, aduciendo que en realidad las ratas disfrutan con los experimentos. Después de todo, explica Talwar, las ratas «trabajan por placer», y cuando los electrodos estimulan el centro de recompensa de su cerebro, «la rata siente el nirvana».[3] Hasta donde sabemos, la rata no percibe que alguien la controla ni que alguien la obliga a hacer algo contra su voluntad. Cuando el profesor Talwar pulsa el control remoto, la rata quiere ir hacia la izquierda, razón por la que se desplaza a la izquierda. Cuando el profesor pulsa otro interruptor, la rata quiere trepar por una escalera, razón por la que trepa por la escalera. Al fin y al cabo, los deseos de la rata no son otra cosa que un patrón de neuronas que disparan. ¿Qué importa si las neuronas disparan porque son estimuladas por otras neuronas o por electrodos trasplantados conectados al control remoto del profesor Talwar? Si le preguntáramos a la rata al respecto, bien podría contestar: «¡Pues claro que tengo libre albedrío! Mira, quiero dirigirme hacia la izquierda, y voy hacia la izquierda. Quiero trepar por una escalera, y trepo por una escalera. ¿No demuestra esto que tengo libre albedrío?». Experimentos realizados en Homo sapiens indican que, al igual que las ratas, los humanos también pueden ser manipulados, y que es posible crear o aniquilar incluso sentimientos complejos tales como el amor, la ira, el temor y la depresión mediante la estimulación de los puntos adecuados del cerebro humano. Recientemente, las fuerzas armadas estadounidenses han iniciado experimentos en los que se implantan chips informáticos en el cerebro de personas, con la esperanza de utilizar este método para tratar a soldados que padecen el trastorno de estrés postraumático.[4] En el hospital Hadassah de Jerusalén, los médicos han iniciado un tratamiento novedoso para pacientes con depresión aguda. Implantan electrodos en su cerebro y conectan los electrodos a un ordenador minúsculo implantado en su pecho. Al recibir una orden del ordenador, los electrodos emplean corrientes eléctricas débiles para paralizar el área cerebral responsable de la depresión. El tratamiento no siempre tiene éxito, pero en algunos casos los pacientes informaron de que la sensación de oscura futilidad que les había atormentado toda la vida desaparecía como por arte de magia. Un paciente se quejó de que varios meses después de la operación había tenido una recaída, y estaba abrumado por una depresión grave. Al inspeccionarlo, los médicos encontraron el origen del problema: la batería del ordenador se había agotado. Una vez cambiaron la batería, la depresión se desvaneció rápidamente.[5] Debido a restricciones éticas obvias, los investigadores solo implantan electrodos en el cerebro humano en circunstancias especiales. Por ello, los experimentos más relevantes en humanos se realizan empleando dispositivos no intrusivos con forma de casco (que se conocen técnicamente como «estimuladores transcraneales con corriente continua»). El casco está dotado de electrodos que se fijan al cuero cabelludo desde el exterior. Produce campos electromagnéticos débiles y los dirige hacia áreas específicas del cerebro, con lo que estimula o inhibe las actividades cerebrales seleccionadas. Las fuerzas armadas estadounidenses experimentan con estos cascos con la esperanza de aguzar la capacidad de concentración y mejorar el rendimiento de los soldados, tanto en las sesiones de instrucción como en el campo de batalla. Los principales experimentos se realizan en la Dirección General de Efectividad Humana, situado en una base de la fuerza aérea de Ohio. Aunque los resultados no son en absoluto concluyentes, y aunque el despliegue publicitario alrededor de los estimuladores transcraneales va mucho más allá de los logros reales, varios estudios han indicado que el método puede efectivamente aumentar la capacidad cognitiva de operadores de drones, controladores de tráfico aéreo, francotiradores y otro personal cuyas funciones requieran largos períodos de atención intensa.[6] A Sally Adee, periodista de New Scientist, se le concedió permiso para visitar unas instalaciones de entrenamiento para francotiradores y comprobó por sí misma los efectos. Al principio entró en un simulador de campo de batalla sin el casco transcraneal. Sally describe cómo se vio abrumada por el miedo al ver a veinte hombres enmascarados, con bombas suicidas fijadas al cuerpo y armados con rifles, arremeter directamente contra ella. «Por cada uno que consigo matar —escribe Sally—, tres nuevos asaltantes aparecen de la nada. Es evidente que no disparo con la suficiente rapidez, y el pánico y la incompetencia hacen que continuamente trabe el rifle». Por suerte para ella, los asaltantes eran solo imágenes de vídeo proyectadas sobre las enormes pantallas que la rodeaban. Aun así, estaba tan decepcionada por su bajo rendimiento que estuvo a punto de dejar caer el arma y salir del simulador. Después la conectaron al casco. Informa que no notaba nada extraño, excepto un ligero hormigueo y un raro sabor metálico en la boca. Pero empezó a cazar a los terroristas de uno en uno, tan fría y metódicamente como si fuera Rambo o Clint Eastwood. «Cuando veinte de ellos corren hacia mí blandiendo sus armas, apunto serena con el rifle, me tomo un momento para respirar profundamente y le doy al más cercano, antes de elegir con calma mi siguiente objetivo. Con la sensación de que no ha pasado el tiempo, oigo una voz que dice en alto “Muy bien, ya está”. Las luces se encienden en la sala de simulación… En el repentino silencio y entre los cuerpos que me rodean, en verdad esperaba más asaltantes, y me siento un poco decepcionada cuando el equipo empieza a retirarme los electrodos. Miro arriba y me pregunto si alguien habrá adelantado los relojes. Inexplicablemente, han pasado veinte minutos. “¿A cuántos he acertado?”, pregunto a la ayudante. Me mira perpleja. “A todos”». El experimento cambió la vida de Sally. En los días siguientes se dio cuenta de que había pasado por una «experiencia casi espiritual […]; lo que definía la experiencia no era sentirse más listo o aprender más deprisa: lo que hizo que la tierra desapareciera bajo mis pies fue que, por primera vez en mi vida, en mi cabeza todo se había callado al fin. […] La ausencia de inseguridad en mi cerebro fue una revelación. De repente se hizo aquel silencio increíble en mi cabeza […]. Espero que puedan comprenderme, pero lo que más ansiosamente deseé durante las semanas que siguieron a mi experiencia era volver y conectarme de nuevo a aquellos electrodos. También empecé a plantearme muchas preguntas. ¿Quién era yo, al margen de los gnomos airados e implacables que pueblan mi mente y que me empujan al fracaso porque tengo demasiado miedo para probar? ¿Y de dónde procedían aquellas voces?».[7] Algunas de aquellas voces repiten los prejuicios de la sociedad, otras son el eco de nuestra historia personal, y aún otras articulan nuestra herencia genética. Todas juntas, afirma Sally, crean un relato invisible que modela nuestras decisiones conscientes de formas que rara vez comprendemos. ¿Qué ocurriría si pudiéramos reescribir nuestros monólogos interiores o incluso silenciarlos completamente de cuando en cuando?[8] En 2016, los estimuladores transcraneales se hallan todavía en su infancia, y no está claro si se convertirán en una tecnología madura ni cuándo lo harán. Por el momento proporcionan capacidades mejoradas solo durante breves períodos, e incluso la experiencia de veinte minutos de Sally Adee podría ser algo excepcional (o quizá incluso el resultado del notorio efecto placebo). La mayoría de los estudios publicados de estimuladores transcraneales se basan en muestras muy reducidas de personas que operaban bajo circunstancias especiales, y los efectos y peligros a largo plazo son totalmente desconocidos. Sin embargo, si la tecnología acaba madurando o si se encuentra algún otro método para manipular las pautas eléctricas del cerebro, ¿cómo repercutirá esto en las sociedades humanas y en los seres humanos? La gente bien podría manipular sus circuitos eléctricos cerebrales no solo para disparar a terroristas, sino también para conseguir objetivos liberales más mundanos; a saber: para estudiar y trabajar de manera más eficiente, sumergirnos en juegos y pasatiempos y ser capaces de centrarnos en lo que nos interese en cualquier momento particular, ya sean las matemáticas o el fútbol. Sin embargo, si tales manipulaciones se convierten en rutina, el supuesto libre albedrío de los clientes se convertirá simplemente en otro producto que podremos comprar. ¿Queremos dominar el piano pero cada vez que llega la hora de practicar preferimos ver la televisión? No hay problema: solo pongámonos el casco, instalemos el programa adecuado y tendremos muchas ganas de tocar el piano. El lector podría contra argumentar que la capacidad de silenciar o mejorar las voces de su cabeza reforzará en realidad su libre albedrío, en lugar de socavarlo. Ahora, a menudo no conseguimos alcanzar nuestros deseos más queridos y auténticos debido a distracciones externas. Con la ayuda del casco de atención y de dispositivos similares podríamos silenciar más fácilmente las voces extrañas de sacerdotes, manipuladores, publicistas y vecinos, y centrarnos en lo que queremos. Sin embargo, como veremos en breve, la idea de que tenemos un único yo y que, por lo tanto, podemos distinguir nuestros deseos auténticos de las voces ajenas no es más que otro mito liberal, que investigaciones científicas recientes han desacreditado.