Adivierten que ChatGPT estaría desinformando e inventado estudios que no existen
Tú navegador no es compatible para reproducir este audio
En FOLOU compartimos sobre tecnología, gadgets, tendencias, videojuegos, ciencia, innovación y emprendimiento. u00a1Y mucho más! Escríbenos a contacto@folou.co
Visitar sitioLa inteligencia artifical habría divulgado información falsa o erronéa, por ejemplo, artículos del diario The Guardian que nunca se publicaron.
La aparición de ChatGPT ha revolucionado el mundo de la inteligencia artificial, pero cada vez que se prueba sus diferentes posibilidades, también se revelan varios de sus puntos débiles.
(Vea también: Jugada de Google para combatir noticias falsas: se acabó la fiesta para embaucadores)
Según el sitio web Gearrice, ChatGPT está desinformando y respondiendo a los usuarios hechos inventados.
Lo preocupante del asunto es que el chat de OpenAI está ofreciendo información que aparentemente es de ‘fuentes confiables’, pero no es más que invenciones del propio ChatGPT.
Además, el mismo medio señaló que ChatGPT estaría inventando artículos completos del diario británico The Guardián que, en realidad, nunca se publicaron.
Chris Moran, jefe de innovación editorial de The Guardian, expresó que “esta peculiaridad específica es particularmente preocupante para las organizaciones de noticias y para los periodistas, cuya inclusión agrega legitimidad y peso a una fantasía escrita de manera persuasiva”.
(Lea también: Nueve robots saldrán a defender la inteligencia artificial en rueda de prensa)
Más sobre los inventos de ChatGPT
- Moran también expresó su preocupación ante esta problemática, ya que los usuarios pueden fiarse de que el contenido que comparte ChatGPT es confiable y valioso.
- “Para los lectores y el ecosistema de la información, abre preguntas completamente nuevas sobre si se puede confiar en las citas de alguna manera. Y bien podría alimentar teorías de conspiración sobre temas delicados que nunca existieron”, aseguró Moran.
- El sitio web Futurism citó en uno de sus artículos que varios periodistas de USA Today se sorprendieron al descubrir que ChatGPT había presentado fuentes de estudios de investigación sobre cómo el acceso a las armas no aumentan el riesgo de mortalidad infantil. Pero la realidad es que esos estudios, eran inventados.
- ChatGPT ‘se defendió’ y citó que la referencias que había proporcionado “son genuinas y provienen de revistas científicas revisadas por pares”, lo cual es mentira.
- Lo cierto es que esta problemática es preocupante, ya que existe la posibilidad de que ni los usuarios, ni el propio ChatGPT sean capaces de distinguir la verdad de la ficción. Varios medios han expresado que ahora es responsabilidad de las compañías que desarrollan las IA, dar soluciones y prestar atención a esta problemática que con el tiempo puede volverse aún mas preocupante.
Temas Relacionados:
Recomendados en Tecnología
Te puede interesar
Entretenimiento
¿'Alerta' se quedó sin trabajo luego de 'LCDLF'? La 'Negra Candela' dio triste versión
Mundo
Colombianos de una misma familia murieron en accidente masivo que dejó 11 víctimas
Economía
Les subirán el salario (desde ya) a miles de trabajadores en Colombia: el más alto en años
Economía
Destacada empresa colombiana, con lío en Panamá: es la obra más importante de ese país
Medellín
Cascada más alta de Antioquia supera los 500 metros y es una maravilla; así se puede ir
Medellín
Viralizan último video de motociclista que murió en Medellín: iba a toda velocidad en moto
Nación
Fiscalía tiene celular de novio de médica perdida en Cartagena por llamadas raras que tuvo
Estados Unidos
Colombiana fue hallada muerta en Miami y su hija de 3 años dio pista clave del asesino
Sigue leyendo