Adivierten que ChatGPT estaría desinformando e inventado estudios que no existen

Tecnología
Tiempo de lectura: 2 min

Tú navegador no es compatible para reproducir este audio

por: 

En FOLOU compartimos sobre tecnología, gadgets, tendencias, videojuegos, ciencia, innovación y emprendimiento. u00a1Y mucho más! Escríbenos a contacto@folou.co

Visitar sitio

La inteligencia artifical habría divulgado información falsa o erronéa, por ejemplo, artículos del diario The Guardian que nunca se publicaron.

La aparición de ChatGPT ha revolucionado el mundo de la inteligencia artificial, pero cada vez que se prueba sus diferentes posibilidades, también se revelan varios de sus puntos débiles.

(Vea también: Jugada de Google para combatir noticias falsas: se acabó la fiesta para embaucadores)

Según el sitio web Gearrice, ChatGPT está desinformando y respondiendo a los usuarios hechos inventados.

Lo preocupante del asunto es que el chat de OpenAI está ofreciendo información que aparentemente es de ‘fuentes confiables’, pero no es más que invenciones del propio ChatGPT.

Además, el mismo medio señaló que ChatGPT estaría inventando artículos completos del diario británico The Guardián que, en realidad, nunca se publicaron.

Chris Moran, jefe de innovación editorial de The Guardian, expresó que “esta peculiaridad específica es particularmente preocupante para las organizaciones de noticias y para los periodistas, cuya inclusión agrega legitimidad y peso a una fantasía escrita de manera persuasiva”.

(Lea también: Nueve robots saldrán a defender la inteligencia artificial en rueda de prensa)

Más sobre los inventos de ChatGPT

  • Moran también expresó su preocupación ante esta problemática, ya que los usuarios pueden fiarse de que el contenido que comparte ChatGPT es confiable y valioso.
  • “Para los lectores y el ecosistema de la información, abre preguntas completamente nuevas sobre si se puede confiar en las citas de alguna manera. Y bien podría alimentar teorías de conspiración sobre temas delicados que nunca existieron”, aseguró Moran.
  • El sitio web Futurism citó en uno de sus artículos que varios periodistas de USA Today se sorprendieron al descubrir que ChatGPT había presentado fuentes de estudios de investigación sobre cómo el acceso a las armas no aumentan el riesgo de mortalidad infantil. Pero la realidad es que esos estudios, eran inventados.
  • ChatGPT ‘se defendió’ y citó que la referencias que había proporcionado “son genuinas y provienen de revistas científicas revisadas por pares”, lo cual es mentira.
  • Lo cierto es que esta problemática es preocupante, ya que existe la posibilidad de que ni los usuarios, ni el propio ChatGPT sean capaces de distinguir la verdad de la ficción. Varios medios han expresado que ahora es responsabilidad de las compañías que desarrollan las IA, dar soluciones y prestar atención a esta problemática que con el tiempo puede volverse aún mas preocupante.

Temas Relacionados:

Te puede interesar

Entretenimiento

¿'Alerta' se quedó sin trabajo luego de 'LCDLF'? La 'Negra Candela' dio triste versión

Mundo

Colombianos de una misma familia murieron en accidente masivo que dejó 11 víctimas

Economía

Les subirán el salario (desde ya) a miles de trabajadores en Colombia: el más alto en años

Economía

Destacada empresa colombiana, con lío en Panamá: es la obra más importante de ese país

Medellín

Cascada más alta de Antioquia supera los 500 metros y es una maravilla; así se puede ir

Medellín

Viralizan último video de motociclista que murió en Medellín: iba a toda velocidad en moto

Nación

Fiscalía tiene celular de novio de médica perdida en Cartagena por llamadas raras que tuvo

Estados Unidos

Colombiana fue hallada muerta en Miami y su hija de 3 años dio pista clave del asesino

Sigue leyendo