Investigadores de la Universidad de Oxford y Google Deepmind han compartido una advertencia escalofriante en un nuevo artículo. El artículo, que se publicó en AI Magazine el mes pasado, afirma que la amenaza de la IA es mayor de lo que se creía anteriormente. Es tan genial que, de hecho, es probable que algún día la inteligencia artificial se levante y aniquile a la humanidad.
La IA podría levantarse algún día.
La IA está creciendo y es impresionante. Puede simular la voz de Val Kilmer en las películas y ha ayudado a los investigadores a resolver problemas complejos varias veces. Ahora, sin embargo, los investigadores postulan que la amenaza de la IA es mayor de lo que pensamos.
Los investigadores publicaron sus hallazgos a fines de agosto. Según el documento, la amenaza de la IA podría cambiar en función de un conjunto de condiciones que identificaron los investigadores. Esta tampoco es la primera vez que los investigadores ven a la IA como una posible amenaza, pero el nuevo documento es intrigante debido a las suposiciones plausibles que analiza.
La principal de estas suposiciones es que los investigadores creen que «las IA que intervienen en la provisión de sus recompensas tendrían consecuencias muy malas», tuiteó Michael Cohen, uno de los autores del artículo, este mes. Cohen dice que las condiciones que identificaron los investigadores muestran que la posibilidad de una conclusión amenazante es más fuerte que en cualquier publicación anterior.
Además, el equipo dice que la amenaza de la IA se basa en una catástrofe existencial y que esto no solo es posible, es muy probable. Uno de los mayores problemas, señalan Cohen y sus colegas investigadores, es que siempre se puede poner más energía en un problema para llevarlo al punto en que la IA sea recompensada por lo que ha hecho. Como tal, podría ponernos en desacuerdo con las máquinas. “La versión corta”, escribe Cohen en su hilo de Twitter, “es que siempre se puede emplear más energía para aumentar la probabilidad de que la cámara vea el número 1 para siempre, pero necesitamos algo de energía para cultivar alimentos. Esto nos coloca en una competencia inevitable con un agente mucho más avanzado”. Con eso en mente, parece que la amenaza de la IA podría cambiar en función de cómo se enseñe.
El número al que se refiere Cohen aquí se basa en una prueba para obligar al agente de IA a alcanzar un número determinado. Y, una vez que se le haya mostrado una forma de hacerlo, podría utilizar más energía para optimizar el logro de ese objetivo. Es una propuesta intrigante y que muestra por qué tantos están preocupados por la amenaza de la IA.
Obviamente, los ejemplos proporcionados en el documento no son los únicos resultados posibles. Y quizás podamos encontrar una manera de mantener las máquinas bajo control. Pero esta nueva investigación plantea algunas preguntas sobre cuánto queremos confiar en la IA en el futuro y cómo podríamos controlarla si ocurriera una catástrofe existencial.
— Este artículo fue traducido de su idioma original de forma automática —