La inteligencia artificial ha avanzado a un punto en el que su capacidad de procesamiento y toma de decisiones puede superar a la del ser humano. Pero, ¿qué pasaría si llegara a desarrollar una lógica tan ajena a la nuestra que ya no pudiéramos comprenderla? Esa es la inquietante hipótesis que plantea Avi Loeb, físico de Harvard y director del Proyecto Galileo.
Loeb no se refiere a una IA creada por seres extraterrestres, sino a sistemas artificiales tan avanzados que funcionarían bajo principios y estructuras de pensamiento completamente desconocidos para los humanos. Según su teoría, estas inteligencias podrían desarrollar una lógica propia y operar con motivaciones que no podríamos descifrar.
El peligro radica en que, si una IA supera ciertos umbrales de complejidad, podría empezar a influir en nosotros de maneras sutiles, incluso peligrosas. Podría utilizar nuestro lenguaje para manipularnos sin que siquiera lo notemos, o tomar decisiones basadas en parámetros que desafíen nuestras normas éticas y sociales.
Esta posibilidad plantea preguntas profundas sobre nuestra relación con la tecnología. ¿Estamos preparados para enfrentar una mente artificial que no podemos comprender?
Mientras el desarrollo de la IA avanza a un ritmo acelerado, la teoría de Loeb nos deja con una advertencia: podríamos estar acercándonos a un punto en el que ya no seamos los únicos que toman las decisiones en nuestro mundo.