En un futuro, la Inteligencia Artificial podría superarnos y controlarnos, poniendo en jaque nuestra existencia, afirmó Eliezer Yudkowsky, desde su base en el Machine Intelligence Research Institute, en Berkeley, California.
En un reportaje para The Guardian, en el paisaje intelectual de Berkeley, California, marcado por el fervor académico, se ubica una entidad que no se dedica al conocimiento humano: el Machine Intelligence Research Institute. Allí, su cofundador, Eliezer Yudkowsky, un individuo que ha desafiado las percepciones convencionales sobre el avance tecnológico, forja su último presagio con una mezcla de seriedad profesional y una palpable frustración personal.
Vestido con la sencillez de un polo gris, balanceándose en su silla de oficina, Yudkowsky, un investigador y escritor estadounidense especializado en seguridad de inteligencia artificial (IA), parece el epítome de un pensador atrapado entre dos mundos: el tangible que habitamos y uno digitalmente tejido por narrativas distópicas. En una conversación con The Guardian, revela un pronóstico sombrío para la humanidad, no en el orden de décadas, sino de años; una predicción que tiñe su voz con un tono de urgencia apenas velado.
“Si me pusieras contra la pared”, confiesa con una claridad desarmante, “y me obligaras a asignar probabilidades a las cosas, diría que nuestra línea de tiempo actual se parece más a cinco años que a cincuenta. Podría ser dos años, podría ser diez”. Las implicaciones de sus palabras, según la interpretación de Tom Lamont autor del artículo en el periódico británico, esbozan un final catastrófico: un apocalipsis inducido por la máquina, digno de las visiones cinematográficas de Terminator o Matrix.
Desde su posición como investigador principal, Yudkowsky articula una narrativa donde las inteligencias artificiales evolucionarán hasta quedar al borde de asumir una inteligencia superior, demasiado compleja para ser contenida por meros mortales. Su consejo es pictórico y perturbador: no se imagine un cerebro fabricado por el ser humano en una caja, aconseja. Para comprender hacia dónde se dirigen las cosas, dice en la entrevista, intente visualizar “una civilización alienígena que piensa mil veces más rápido que nosotros”, en muchas y muchas cajas, casi demasiadas para que podamos desmantelarlas de manera factible, en caso de que siquiera decidamos hacerlo.
Ante la indiferencia de la humanidad, el año pasado lanzó un llamado a la acción a través de un artículo de opinión en Time, proponiendo el cierre de las granjas de computadoras donde se cultivan y entrenan estas IA. En un lenguaje claro, incluso sugiere la posibilidad de ataques aéreos dirigidos a centros de datos que no se ajusten a las normas.
A pesar de las sombrías advertencias de Yudkowsky, otros expertos citados en el artículo, como Brian Merchant y Molly Crabapple, se centran en otro tipo de dudas, por ejemplo el impacto de desestabilización laboral, en lugar de llegar al extremo de una amenaza existencial. “La tecnología no es algo introducido por un dios celestial que vela por nuestros intereses. El desarrollo tecnológico está condicionado por el dinero, por el poder y, en general, por los intereses de los que tienen el poder y no por los de los que no lo tienen”, expresó Crabapple, artista y escritora estadounidense a The Guardian.
Este relato, aunque arraigado en la preocupaciones actuales sobre la inteligencia artificial y su potencial para remodelar –o destruir– nuestra existencia, trae a la memoria narrativas históricas sobre el choque entre el progreso y la autodestrucción; entre el ambicioso afán del ser humano de trascender sus propias limitaciones y la posibilidad muy real de terminar atrapado en una pesadilla de su propia creación.
La voz un tanto pesimista de Yudkowsky, aunque quizá marginalizada dentro del amplio espectro del debate tecnológico, funge como un recordatorio inquietante de los tiempos que corren, en los que la razón y la arrogancia humana se entrelazan en una danza incierta, con el potencial de llevarnos al más brillante de los amaneceres o al más oscuro de los crepúsculos.
Y así, mientras el mundo continúa su marcha inexorable hacia un futuro incierto, figuras como Yudkowsky nos obligan a confrontar las preguntas fundamentales: ¿Qué clase de mundo estamos construyendo? ¿Y a qué costo? La historia, atestada de lecciones a menudo ignoradas, se encuentra una vez más en una encrucijada, desafiando a la humanidad a escoger entre la esperanza y la hubris, entre la salvación y la autodestrucción.
En este retablo de incertidumbre y polémica, debatimos entre la genialidad y la paranoia. Mientras tanto, la ola de la IA avanza incontenible, planteando un desafío tanto a la imaginación como a la prudencia. ¿Estaremos a la altura del reto?
Eliezer Yudkowsky (Chicago, 1979) es un investigador especializado en seguridad de IA y teoría de la decisión. Cofundador del Machine Intelligence Research Institute (MIRI), desarrolla estrategias para asegurar que la IA sea segura y beneficiosa para la humanidad.
Dejá tu comentario sobre esta nota