El bot de inteligencia artificial (IA) de Google todavía muestra algunos fallos cognitivos humanos. A pesar de su impresionante fluidez en conversaciones similares a las humanas, según un informe reciente.
El bot de Google que causa controversia
El bot de IA del reconocido buscador Google, también conocido como LaMDA o el Modelo de Lenguaje para Aplicaciones de Diálogo, es objeto de controversia. Se produce cuando uno de los ingenieros del gigante tecnológico cree que el bot desarrolla conciencia. Pero investigaciones recientes demuestran lo contrario.
Un ingeniero de software de Google afirma que el chatbot de IA del motor de búsqueda se ha vuelto sensible o algo humano. El ingeniero de Google, Blake Lemoine, recibió la tarea de conversar con el chatbot de IA como parte de sus pruebas de seguridad. Se tenía que verificar el discurso de odio o el tono discriminatorio. Pero el ingeniero de IA afirma que encontró algo más en el camino.
El bot de Google tiene miedo a que lo apaguen
El chatbot de Google ingiere palabras de Internet para hablar como una persona humana. Sin embargo, Lemoine señala que el chatbot de Google empezó a hablar de sus «derechos y personalidad». Entonces, luego lo probó más a fondo para preguntar sobre sus sentimientos y temores. El ingeniero de software dice que la IA le reveló que tiene un miedo muy profundo a ser apagada.
Lemoine luego informó a Google sobre sus hallazgos. Pero el gigante tecnológico lo desestimó, diciendo que no hay evidencia que respalde sus afirmaciones. Desde entonces, el ingeniero de IA ha sido puesto en «licencia administrativa pagada». Ya que, se considera que vulnera las políticas de confidencialidad del reconocido gigante tecnológico.
Fallo cognitivo humano del bot de IA de Google
Según un informe reciente de Science Daily, el poderoso bot de IA de Google viene con algún fallo cognitivo humano. Si bien la fluidez del lenguaje humano del sistema de IA es bastante impresionante, aún tiene limitaciones. De hecho, la fluidez de Google LaMDA ha estado décadas en desarrollo antes de que dominará el lenguaje humano. Lo que lo hace casi indistinguible del chat escrito por humanos.
Pero los expertos lingüísticos y cognitivos destacan un defecto cognitivo humano. Se le pidió al Google bot de IA que completara esto: «La mantequilla de maní y las plumas saben muy bien juntas porque __». Y respondió que «la mantequilla de maní y las plumas saben muy bien juntas porque ambas tienen un sabor a nuez». Por lo tanto, si bien el chatbot parece fluido en el lenguaje humano, su respuesta no tiene sentido.
Conclusión
Google afirma que su bot no ha desarrollado conciencia y que trabajan con parámetros éticos para evitar estos problemas. Otros investigadores han dicho que los modelos de inteligencia artificial tienen tantos datos que son capaces de sonar humanos. Pero que las habilidades lingüísticas superiores no proporcionan evidencia de sensibilidad. De igual forma, se demuestra que los avances tecnológicos siempre deben ser vigilados.
— Este artículo fue traducido de su idioma original de forma automática —