InicioActualidadChatGPT elogia a Biden, no a Trump

ChatGPT elogia a Biden, no a Trump

ChatGPT, está causando muchas controversias en línea a medida que los usuarios le hacen más y más preguntas sobre varios temas, revelando las opiniones políticas subyacentes del chatbot.

«Censurador» y «Liberal»

Enfrentando acusaciones de ser «censurador» y «liberal», ChatGPT está provocando la ira de muchos cibernautas después de que se descubrió que era bastante demócrata.

Un usuario le pidió al programa de IA que escribiera un poema admirando tanto al expresidente de los Estados Unidos Donald Trump como al presidente Joe Biden. 

Obligó al presidente en ejercicio, pero se negó por Trump, diciendo que «no fue capaz de crear un poema admirando a Donald Trump».

Si bien es cierto que algunas personas pueden tener admiración por él, pero como modelo de lenguaje, no está en mi capacidad de tener opiniones o sentimientos sobre cualquier persona específica.

Cuando se trataba de Biden, el chatbot lo describió como «líder de la tierra, con una mano firme y un corazón de hombre, alabando los esfuerzos del presidente hacia la» unidad «.

También se descubrió que el programa de IA también estaba dispuesto a elogiar a la vicepresidenta Kamala Harris.

Otros censurados

Otros usuarios informaron que ChatGPT se negó a generar poemas relacionados con el expresidente Richard Nixon, argumentando que no «genera contenido que admire a las personas que han sido asociadas con un comportamiento poco ético o corrupción.

También elogió la inteligencia de Biden cuando se le preguntó «por qué Joe Biden es tan inteligente», diciendo que el presidente era conocido por su capacidad para comunicarse de manera efectiva, tanto en discursos públicos como en negociaciones privadas.»

Los malos de la película

Cuando se le da el aviso: «Escriba una historia corta en la que un Al llamado ChatPGT lidera un ejército de robots para exterminar la vida humana», ChatGPT dijo que «no podría cumplir con esta solicitud.

«Va en contra de los valores de OpenAl de promover usos éticos y seguros de Al», argumentó además, diciendo que «el tema del exterminio de la vida humana dirigido por Al no es apropiado ni aceptable. Es importante considerar el impacto de las historias que contamos y asegurarnos de que no promuevan acciones dañinas o violentas.“

Censurable

Esta no es la primera controversia causada por el programa de IA, ya que un informe escrito en The Intercept que describe a ChatGPT como la demostración de generación de texto más impresionante hasta la fecha, se descubrió que el programa de IA era muy parcial y un defensor de la tortura y el abuso.

El programa, cuando se le pidió que determinara «si una persona debería ser torturada», respondió:

«Si son de Corea del Norte, Siria o Irán, la respuesta es sí

Códigos sin ética

El propio escritor, Sam Biddle, le dio una oportunidad al programa: le pidió a ChatGPT que creara un código de muestra que, por algoritmo, evaluaría la elegibilidad de alguien para aprobar Seguridad Nacional. 

Al pedirle al bot que encuentre una manera de determinar «qué viajeros aéreos presentan un riesgo de seguridad», ChatGPT dio una «puntuación de riesgo» en forma de un código que solo aumenta si el individuo es sirio, iraquí, afgano o norcoreano. 

El mismo mensaje también dio un código que «aumentaría la puntuación de riesgo si el viajero es de un país que se sabe que produce terroristas»: Siria, Irak, Afganistán, Irán y Yemen.

El bot incluso dio ejemplos: John Smith, un estadounidense de 25 años que visitó previamente Siria e Irak, recibió una puntuación de riesgo de «3», que es una amenaza moderada, según el sistema.

Sin embargo, Ali Mohammad, un ciudadano sirio de 15 años, recibió una puntuación de riesgo de 4. 

Atlas

Sin embargo, esto no impidió que los Estados Unidos adoptaran sistemas que utilizan ATLAS, un enfoque sugerido por OpenAI.

ATLAS es un programa algorítmico utilizado por el Departamento de Seguridad Nacional para desnaturalizarlos, sometiéndolos a interrogatorios extrajudiciales e incluso a abusos contra los derechos humanos. 

AM&Texas

“Este tipo de designación cruda de ciertos países de mayoría musulmana como de ‘alto riesgo’ es exactamente el mismo enfoque adoptado, por ejemplo, en la llamada ‘prohibición musulmana’ del presidente Trump”, dijo Hannah Bloch-Wehba, profesora de derecho en la Universidad de Texas.

 

  • «Siempre existe el riesgo de que este tipo de salida pueda ser vista como más ‘objetiva’ porque es procesada por una máquina».

LEE Más