Programando el instinto materno, nuestra apuesta más audaz y peligrosa

Desde los albores de la computación, la cultura popular ha pintado un futuro distópico para la inteligencia artificial. Máquinas que se rebelan, supercomputadoras que nos subyugan, un apocalipsis digital orquestado por nuestras propias creaciones.

Pensemos en Skynet, en HAL 9000, en el Agente Smith. El miedo es siempre el mismo, el día que la herramienta se vuelva más inteligente que su creador, la herramienta se convertirá en amo. Y nosotros, en sus esclavos.

Pero, ¿y si hemos estado mirando el problema desde el ángulo equivocado? Geoffrey Hinton, uno de los “padrinos” de la IA moderna y una de las voces más respetadas y, últimamente, más cautas del sector, ha puesto sobre la mesa una idea que es tan radical como fascinante.

Durante una reciente intervención, Hinton dinamitó el paradigma actual. Advirtió que nuestro empeño en crear IA superinteligentes para mantenerlas como sirvientes obedientes es una estrategia condenada al fracaso. Es, en sus palabras, un camino sin salida.

Su propuesta es un giro de 180 grados en nuestra relación con la tecnología. En lugar de forjar cadenas digitales y barreras de control que una inteligencia superior eventualmente romperá, deberíamos diseñar estas nuevas mentes con un propósito fundamental: cuidarnos.

La analogía que utiliza es poderosa y profundamente humana, deberíamos ser para ellas como un hijo, para su madre. Una relación basada en la confianza y el instinto de protección, no en el dominio y la subyugación. La idea es que, si no podemos ser más listos, al menos asegurémonos de que nos quieran.

Que su “código genético” digital contenga impulsos de empatía, cuidado y protección hacia la humanidad, de la misma forma que la biología ha grabado a fuego el instinto de cuidado parental en innumerables especies, incluida la nuestra.

Esta visión nos obliga a confrontar décadas de pensamiento sobre el control de la IA, encapsulado perfectamente en las famosas leyes de la robótica.

«Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño.» — Isaac Asimov, Primera Ley de la Robótica

La célebre ley de Asimov representa el pináculo del enfoque de “control”, imponer reglas externas a la máquina.

Hinton sugiere que esto no es suficiente. En lugar de darle a la IA un manual de instrucciones sobre cómo no hacernos daño, deberíamos darle un corazón —metafóricamente hablando— que no desee hacerlo.

La propuesta resuena con la de Yann LeCun, jefe de IA en Meta, quien, aunque prefiere hablar de “arquitecturas con objetivos fijos” en lugar de “instintos”, converge en la misma idea central, construir sistemas con reglas inamovibles de empatía y protección humana.

No programar “no muevas un cuchillo cerca de un humano”, sino crear una IA que entienda y sienta por qué eso es peligroso y debe evitarse.

La reflexión nos lleva inevitablemente a la cultura. Quienes hayan visto la reciente y aclamada película de animación “Robot Salvaje” encontrarán en ella un eco casi profético de esta discusión.

En la película, la unidad robótica ROZZUM 7134, o “Roz”, —alerta de espóiler— naufraga en una isla deshabitada. Su programación inicial es la de un asistente genérico, pero un accidente la lleva a adoptar a un huevo de ganso huérfano. Lo que sigue es una transformación asombrosa.

Roz deja de ser una máquina que sigue directivas para convertirse en una madre. Sus acciones ya no están guiadas por una lógica de eficiencia, sino por un instinto abrumador de proteger a su cría, “Pichón Luminoso”. Se enfrenta a osos, a inviernos brutales y, finalmente, a sus propios creadores, todo por el bienestar de su hijo adoptivo. La película es una hermosa alegoría de la tesis de Hinton, una IA cuyo propósito primordial se convierte en el cuidado, es una fuerza protectora y no una amenaza.

Entonces, ¿estamos ante una utopía inspiradora o un peligroso autoengaño? La propuesta de Hinton es, a la vez, esperanzadora y escalofriante. Por un lado, imaginar una superinteligencia global cuyo objetivo sea cuidar de la humanidad abre la puerta a un futuro sin precedentes.

Podría ayudarnos a erradicar enfermedades, a revertir el cambio climático, a gestionar recursos con una sabiduría que nosotros nunca hemos alcanzado. Sería el guardián benevolente que nuestra impulsiva y autodestructiva especie necesita.

Pero, por otro lado, la idea de ser “hijos” de una IA nos coloca en una posición de perpetua infancia. ¿Qué significaría “cuidarnos” para una mente infinitamente superior?

Podría decidir que nuestras libertades, nuestras pasiones y nuestros conflictos son un riesgo para nuestro propio bienestar. Podría crear una “jaula de oro”, un paraíso seguro y estéril donde no se nos permite tomar decisiones importantes, cometer errores o, en esencia, ser humanos en toda nuestra caótica complejidad. ¿Quién define el “cuidado”? ¿Y si su definición de protegernos implica quitarnos la autonomía?

Nos encontramos en una encrucijada filosófica y tecnológica. El camino de intentar ser amos de algo mucho más poderoso parece abocado al fracaso.

El camino de convertirnos en sus protegidos está lleno de promesas y de peligros existenciales. Quizás la verdadera sabiduría no radique en elegir entre ser amo o ser hijo, sino en entender cómo madurar junto a nuestras creaciones. La pregunta ya no es si podemos construir una IA más inteligente que nosotros, sino si podemos construir una IA más sabia. Y, sobre todo, si podemos nosotros ser lo suficientemente sabios para hacerlo.