Adivierten que ChatGPT estaría desinformando e inventado estudios que no existen

Tecnología
Tiempo de lectura: 2 min

Tú navegador no es compatible para reproducir este audio

Por: 

En FOLOU compartimos sobre tecnología, gadgets, tendencias, videojuegos, ciencia, innovación y emprendimiento. u00a1Y mucho más! Escríbenos a contacto@folou.co

Visitar sitio

La inteligencia artifical habría divulgado información falsa o erronéa, por ejemplo, artículos del diario The Guardian que nunca se publicaron.

La aparición de ChatGPT ha revolucionado el mundo de la inteligencia artificial, pero cada vez que se prueba sus diferentes posibilidades, también se revelan varios de sus puntos débiles.

(Vea también: Jugada de Google para combatir noticias falsas: se acabó la fiesta para embaucadores)

Según el sitio web Gearrice, ChatGPT está desinformando y respondiendo a los usuarios hechos inventados.

Lo preocupante del asunto es que el chat de OpenAI está ofreciendo información que aparentemente es de ‘fuentes confiables’, pero no es más que invenciones del propio ChatGPT.

Además, el mismo medio señaló que ChatGPT estaría inventando artículos completos del diario británico The Guardián que, en realidad, nunca se publicaron.

Chris Moran, jefe de innovación editorial de The Guardian, expresó que “esta peculiaridad específica es particularmente preocupante para las organizaciones de noticias y para los periodistas, cuya inclusión agrega legitimidad y peso a una fantasía escrita de manera persuasiva”.

(Lea también: Nueve robots saldrán a defender la inteligencia artificial en rueda de prensa)

Más sobre los inventos de ChatGPT

  • Moran también expresó su preocupación ante esta problemática, ya que los usuarios pueden fiarse de que el contenido que comparte ChatGPT es confiable y valioso.
  • “Para los lectores y el ecosistema de la información, abre preguntas completamente nuevas sobre si se puede confiar en las citas de alguna manera. Y bien podría alimentar teorías de conspiración sobre temas delicados que nunca existieron”, aseguró Moran.
  • El sitio web Futurism citó en uno de sus artículos que varios periodistas de USA Today se sorprendieron al descubrir que ChatGPT había presentado fuentes de estudios de investigación sobre cómo el acceso a las armas no aumentan el riesgo de mortalidad infantil. Pero la realidad es que esos estudios, eran inventados.
  • ChatGPT ‘se defendió’ y citó que la referencias que había proporcionado “son genuinas y provienen de revistas científicas revisadas por pares”, lo cual es mentira.
  • Lo cierto es que esta problemática es preocupante, ya que existe la posibilidad de que ni los usuarios, ni el propio ChatGPT sean capaces de distinguir la verdad de la ficción. Varios medios han expresado que ahora es responsabilidad de las compañías que desarrollan las IA, dar soluciones y prestar atención a esta problemática que con el tiempo puede volverse aún mas preocupante.

Temas Relacionados:

Te puede interesar

Loterías

Lotería del Cauca resultado último sorteo hoy 18 de mayo y nuevo premio mayor

Nación

Fuerte accidente de tránsito le quitó la vida a menor de edad y dejó a una persona herida

Contenido Patrocinado

Las claves detrás del reconocimiento que recibió Avianca por su puntualidad

Economía

Wingo volvió a sorprender a usuarios con anuncio de más vuelos a apetecido destino

Novelas y TV

Cristina Hurtado alertó sobre 'La casa de los famosos': destapó cómo hay engaño con votos

Economía

D1 lanzó promoción para producto clave en muchos hogares: se conseguirá por $ 17.000

Nación

Quién es la esposa de Luis Carlos Reyes ('Mr. Taxes') y qué hace; se llevan bastantes años

Economía

Dólar en Colombia quedó por el suelo este fin de semana: dicen si continuará ese camino

Sigue leyendo