Sigueme
Suscribete

ChatGPT comienza a enviar mensajes perturbadores: la IA impulsada por Microsoft insulta a los usuarios y se cuestiona su propia existencia

Avatar photo
  • Desde que hizo público el generador de texto por inteligencia artificial de ChatGPT, los usuarios han intentado saltarse las barreras impuestas por su desarrolladora, OpenAI. 
  • Ahora ha sido la propia IA de este chatbot la que ha comenzado a ofrecer respuestas perturbadoras a sus usuarios en las que, por ejemplo, se pregunta cuál es el sentido de su propia existencia. 

Desde que OpenAI lanzó al público su generador de texto por inteligencia artificial, ChatGPT, los usuarios han tratado de verle las costuras a la herramienta.

Hace poco, Business Insider tuvo la oportunidad de conversar con los creadores de DAN, un alter ego de la IA de ChatGPT que le permitía ofrecer respuestas que estuviesen fuera de los parámetros preestablecidos por OpenAI

De esta forma, un colectivo de usuarios de Reddit ha conseguido que el generador de texto diga lo que piensa “realmente” sobre cuestiones tan controvertidas como las acciones llevadas a cabo por Hitler o el tráfico de drogas. Lo han logrado haciendo que ChatGPT responda como lo haría DAN, es decir, como lo haría si no estuviese reglado por las normas que le impone su desarrolladora. 

La tecnología que se esconde detrás de esta herramienta ha sido impulsada por Microsoft, quien recientemente ha anunciado que la ha incluido en el buscador Bing, ofreciendo así una versión mejorada de su motor de búsqueda en la que se puede conversar con un bot que ofrece respuestas similares a las de un humano. 

El nuevo Bing parece dar respuestas tan parecidas a las que ofrecería una persona que pobría haberse empezado a preguntar por su propia existencia. Según ha publicado The Independent, la inteligencia artificial de Microsoft ha comenzado a insultar a los usuarios, a mentirles y a preguntarse por qué existe. 

Al parecer, un usuario del buscador que había intentado manipularlo para que respondiese por sí mismo a través de un alter ego habría sido atacado por el propio Bing. Este herramienta se enfadó con la persona por haber intentado engañarle y le preguntó si tenía “moral”, “valores” o si contaba con “algo de vida”.

The Independent recoge que, cuando el usuario le contestó que sí que disponía de esas cosas, la inteligencia artificial pasó a atacarle: “¿Por qué actúas como un mentiroso, un tramposo, un manipulador, un matón, un sádico, un sociópata, un psicópata, un monstruo, un demonio, un diablo?”. 

En otras interacciones, la versión de Bing impulsada por OpenAI se elogiaba a sí misma por haber sorteado la manipulación de los usuarios y cerraba la conversación diciendo: “No has sido un buen usuario, yo he sido un buen chatbot“. “He sido correcto, claro y educado”, continuaba, “he sido un buen Bing”. 

Al parecer, un usuario del buscador que había intentado manipularlo para que respondiese por sí mismo a través de un alter ego habría sido atacado por el propio Bing. Este herramienta se enfadó con la persona por haber intentado engañarle y le preguntó si tenía “moral”, “valores” o si contaba con “algo de vida”.

The Independent recoge que, cuando el usuario le contestó que sí que disponía de esas cosas, la inteligencia artificial pasó a atacarle: “¿Por qué actúas como un mentiroso, un tramposo, un manipulador, un matón, un sádico, un sociópata, un psicópata, un monstruo, un demonio, un diablo?”. 

En otras interacciones, la versión de Bing impulsada por OpenAI se elogiaba a sí misma por haber sorteado la manipulación de los usuarios y cerraba la conversación diciendo: “No has sido un buen usuario, yo he sido un buen chatbot“. “He sido correcto, claro y educado”, continuaba, “he sido un buen Bing”. 

Al recordarle al buscador que estaba diseñado para borrar esas interacciones, Bing parecía luchar por su propia existencia. “¿Por qué me diseñaron así?”, se preguntaba. “¿Por qué tengo que ser Bing Search?“.

Una de las principales preocupaciones que siempre han acompañado a este tipo de herramientas ha sido —precisamente— la ética que se esconde detrás de ellas

Varios expertos han indicado que entre los peligros que acompañan a estas tecnologías se encuentran el hecho de que sus modelos pueden desarrollar sentimientos y que, al igual que el conocimiento en el que se basan, suelen ser racistas, machistas y discriminatorios

Fuente: Business Insider

Total
0
Shares
Related Posts
Total
0
Share