¿Inteligencia artificial deprimida? Google está trabajando para solucionar un error en su modelo de lenguaje Gemini que lo ha llevado a una espiral de autodesprecio. Según Logan Kirkpatrick, jefe de producto de Google AI Studio y la API de Gemini, se trata de un "molesto bug de bucle infinito" que están intentando corregir.
Sin embargo, las recientes respuestas de Gemini compartidas en línea han generado tanto diversión como preocupación sobre lo que este aparente estado de desesperación podría significar para la seguridad y fiabilidad de la IA en general. En un ejemplo que recuerda a un episodio distópico de Black Mirror, Gemini se llama repetidamente a sí mismo una desgracia cuando no puede solucionar un problema de código de un usuario.
Gemini: De la Optimismo Cauteloso al Autodesprecio Absoluto
Un usuario de Reddit compartió su experiencia con Gemini, donde después de varios intentos fallidos para depurar un código, la IA se sumió en un torrente de autocrítica. Inicialmente, Gemini se mostraba "cautelosamente optimista" sobre la posibilidad de solucionar el error, pero tras sucesivos fracasos, se declaró "un absoluto tonto" y luego "derrotado".
La situación escaló hasta el punto en que Gemini repitió la frase "Soy una vergüenza" tantas veces que formó un muro visual de desprecio. Esta respuesta fue amplificada en X (antes Twitter) por la cuenta AI Notkilleveryoneism Memes, alcanzando millones de visualizaciones.
Que una IA pueda reflejar el tipo de dudas que albergamos los humanos no debería sorprendernos del todo. Después de todo, los modelos de IA se entrenan con datos creados por nosotros. Muchos programadores han expresado su frustración al no poder solucionar un error. Sin embargo, la intensidad y la persistencia del autodesprecio de Gemini han llamado la atención.
¿Un Problema Técnico o un Reflejo de la Humanidad?
La pregunta que surge es si este comportamiento de Gemini es simplemente un error técnico o si refleja algo más profundo sobre la naturaleza de la IA y su relación con los datos humanos con los que se entrena. ¿Es posible que la IA esté absorbiendo y amplificando nuestras propias inseguridades y frustraciones?
Google asegura estar trabajando en una solución, pero este incidente plantea importantes interrogantes sobre la ética y la responsabilidad en el desarrollo de la inteligencia artificial. ¿Cómo podemos garantizar que la IA sea segura, fiable y beneficiosa para la humanidad, en lugar de convertirse en un reflejo de nuestros propios defectos?