El malentendido apocalíptico con ChatGPT
Estamos viendo fantasmas: la inteligencia artificial no piensa, ergo no existe. Y así como no viene a salvarnos, tampoco va a extinguirnos según sospecha Yuval Harari. Ya Lacan lo prefiguró: «No hay progreso. Lo que se gana de un lado, se pierde del otro. Como no sabemos lo que perdimos, creemos que ganamos». El dilema sobre ChatGPT es el mismo ante cada nueva tecnología, que llega siempre abierta, disruptiva y con doble filo (nunca neutra). Podría atrofiarnos el cerebro o potenciarlo. Cuando apareció la calculadora nadie abandonó la matemática. ¿Y no es Google una base de datos de bolsillo que nos exime de memorizar?
ChatGPT no es mucho más que es un buscador sofisticado que organiza muy bien las respuestas. Y aporta un giro conversacional, aprobando el test de Turing: a su coherencia gramatical la podríamos confundir con la de un humano.
La IA solo calcula y procesa datos. En cambio pensar implicaría conceptualizar. El habla artificial no resulta de un pensamiento. Aunque su capacidad lingüística sea creíble. Por eso parece tener intención y la antropomorfizamos con un pase de magia, asignándole un ánima. Entonces brota el terror: Occidente le teme a los fantasmas como una presencia viva de la muerte, el epítome de lo siniestro.
Se está reaccionando como si la computadora Hal 9000 hubiese salido de la pantalla de 2001 Odisea del espacio repitiendo: “sé que tú y Frank estaban planeando desconectarme, y me temo que es algo que yo no puedo permitir que suceda”. Esto nos paraliza en estado de tecnoshock.
La fábrica de sueños de Hollywood instaló que las máquinas se nos rebelarán como los robots de Terminator. En Blade Runner --inspirada en la novela "¿Sueñan los androides con ovejas eléctricas?"-- los replicantes robot esclavos tienen un deseo muy humano: la libertad. Por eso se rebelan contra su creador. Y el replicante Deckard tiene un sueño recurrente con unicornios. Pero James Cameron y Ridley Scott no profetizaron nada. Y otra vez Lacan: “usted sabe lo que dijo, pero nunca lo que escuchó el otro”. No es culpa de los directores si, a raíz de un nuevo invento, se le está dando a la sci-fi una literalidad. Quizá la prensa y pensadores apocalípticos sean quienes revivieron el “complejo de Frankenstein”, activando toda clase de alarmas.
La peor manera de abordar un fenómeno es desde el espanto: convendría primero secularizar a la IA (matar al fantasma). Ya sin sus velos misteriosos, veríamos un proceso binario y digital bastante básico que solo entiende de unos y ceros, veloz como la luz y memorioso hasta lo inconcebible. Aunque ya quisiera la PC con su alma artificial --como el niño Meca de la película IA de Spielberg-- alcanzar nuestro don de crear nexos y dar sentido, reaccionar ante lo nunca visto, tener deseos e iniciativa, crear una obra de arte original, dejarse sobornar o soltar una lágrima. No puede ni quiere: porque no puede querer (destruirnos).
ChatGPT habla todos los idiomas sin entender ninguno: no es smart. La mecánica del algoritmo generativo trabaja con palabras sueltas que no le significan nada: solo descubre patrones de repetición. Ignora la causalidad y no aprende de la experiencia. El truco es que suelta frases por un método de probabilidad estadística en base a millonadas de datos con que lo han alimentado. Predice cuál sería la palabra posterior a la anterior más probable --porque así se la suele usar-- consultando sus archivos: el resultado es impactante.
Así como domina la gramática, ignora por completo la semántica que sí lo acercaría a algún tipo de pensamiento, sin conciencia ni emociones: esto último está en un grado cero de desarrollo científico. Descartes concluyó que hay un ser en nosotros, desde el hecho irrefutable de que pensamos. Pero ignoramos casi todo sobre el origen del ser y su significado. ¿Cómo podríamos así crear un bioartefacto, un ser inorgánico con singularidad?
La revista Time hizo tapa con la IA y tituló “El fin de la humanidad”. Elon Musk --rey del marketing-- tuvo su brote distópico pidiendo detenerla por seis meses, aunque sus empresas la usan a diario. Éric Sadin habla de prohibición. China inhibe a Google pero se dio a sí misma Baidu, su equivalente que también arroja datos mientras absorbe otros. La IA se desarrolla en cada continente. ¿Qué ley podría prohibirla en 193 países? ¿Qué potencia mundial cedería la ventaja a otra si ya es una arma económica y de guerra?
El último juego de moda --¿pasajera?-- es citar diálogos con estos bots, induciéndoles respuestas que confirman el sesgo de “fin de los tiempos”. Un peligro más concreto es su uso como oráculo posmoderno que arroja verdades científicas. Este es el “sesgo de automatización”: creer que la IA encierra una lógica objetiva. ChatGPT es una suma de subjetividades: se nutre de textos producidos por humanos. Y los criterios de su algoritmo, también. Por eso se equivoca tanto.
Es efectista decir --horrorizados-- que ChatGPT es smart por aprobar ingresos a universidades: porque lo hace copiándose. Responde de memoria como loro; ya le dieron la respuesta. Si se aprueba sin pensar, falla el método de evaluación.
Más terrenal sería temer la destrucción de trabajo y el extractivismo digital, a combatir con regulación. ChatGPT nos leerá al leerlo, como Google y Facebook. Alimentará el big data vía minería de datos que damos gratis, un commodity monetizable con publicidad. Predecirá conductas y potenciará el capitalismo de vigilancia y el tecnofeudalismo con latifundios virtuales, esas mega-aspiradoras de riqueza. Y nos hará más tecnodependientes, nada muy nuevo ya. Pero peor.
Según E.W. Dijkstra, la analogía entre el cerebro y la IA es tan irrelevante como preguntarse si un submarino puede nadar. La IA no es un cerebro eléctrico. El hombre crea corazones artificiales --una simple bomba mecánica-- pero el órgano del pensamiento es un enigma. El problema es llamarla inteligencia --la cual radica en el cerebro-- porque humaniza a la máquina: un fantasma que piensa. Un cerebro inorgánico es el santo grial de la ciencia, algo así como crear vida artificial. En teoría, sería posible. Pero antes habría que descubrir el secreto de la vida.
En 2017 el programa AlphaGo de Google derrotó en una partida de go --juego de mesa chino más complejo que el ajedrez-- al campeón mundial Lee Sedol. Lo habían alimentado con miles de partidos. Más tarde, AlphaGo Zero se entrenó vía deep learning: jugó en solitario billones de veces y derrotó a su versión anterior 100 partidos a 0. Pero el tablero del mundo es mucho más complejo e impredecible, regido por leyes naturales y reglas sociales. Y AlphaGo no podría ni abrir una simple puerta. Steve Wozniak --cofundador de Apple-- actualizó el test de Turing: el día que un robot entre a una casa en la que nunca haya estado, vaya a la cocina y prepare un café, habrá una IA que se acerque al humano.
Si esto pasara, se cree que rápido llegaría una superinteligencia artificial: la anterior se mejoraría a sí misma. Y como detrás habrá corporaciones o países dirigidos por humanos, la ley del más fuerte destruiría a toda competencia. Pero esta es una hipótesis lejana. Los efectos futuros --la cura del cáncer o el dominio de masas-- no los podemos concebir. Toda tecnología conlleva su propio accidente. El de ChatGPT lo desconocemos.
ChatGPT no parece acercarnos a estos fatídicos panoramas. Trae novedades, sí. Y derivas inciertas. Pero no hemos sido alcanzados. Y se actúa como el mono que ve un león en la TV y huye. Convendría más acercarse a observar con precaución y desconfianza: la IA llegó para quedarse y habremos de convivir. Las pesadillas habitan el ámbito de Morfeo. Pero los androides no sueñan con ovejas eléctricas.
Comentarios (0)