Adivierten que ChatGPT estaría desinformando e inventado estudios que no existen
Tú navegador no es compatible para reproducir este audio
En FOLOU compartimos sobre tecnología, gadgets, tendencias, videojuegos, ciencia, innovación y emprendimiento. u00a1Y mucho más! Escríbenos a contacto@folou.co
Visitar sitioLa inteligencia artifical habría divulgado información falsa o erronéa, por ejemplo, artículos del diario The Guardian que nunca se publicaron.
La aparición de ChatGPT ha revolucionado el mundo de la inteligencia artificial, pero cada vez que se prueba sus diferentes posibilidades, también se revelan varios de sus puntos débiles.
(Vea también: Jugada de Google para combatir noticias falsas: se acabó la fiesta para embaucadores)
Según el sitio web Gearrice, ChatGPT está desinformando y respondiendo a los usuarios hechos inventados.
Lo preocupante del asunto es que el chat de OpenAI está ofreciendo información que aparentemente es de ‘fuentes confiables’, pero no es más que invenciones del propio ChatGPT.
Además, el mismo medio señaló que ChatGPT estaría inventando artículos completos del diario británico The Guardián que, en realidad, nunca se publicaron.
Chris Moran, jefe de innovación editorial de The Guardian, expresó que “esta peculiaridad específica es particularmente preocupante para las organizaciones de noticias y para los periodistas, cuya inclusión agrega legitimidad y peso a una fantasía escrita de manera persuasiva”.
(Lea también: Nueve robots saldrán a defender la inteligencia artificial en rueda de prensa)
Más sobre los inventos de ChatGPT
- Moran también expresó su preocupación ante esta problemática, ya que los usuarios pueden fiarse de que el contenido que comparte ChatGPT es confiable y valioso.
- “Para los lectores y el ecosistema de la información, abre preguntas completamente nuevas sobre si se puede confiar en las citas de alguna manera. Y bien podría alimentar teorías de conspiración sobre temas delicados que nunca existieron”, aseguró Moran.
- El sitio web Futurism citó en uno de sus artículos que varios periodistas de USA Today se sorprendieron al descubrir que ChatGPT había presentado fuentes de estudios de investigación sobre cómo el acceso a las armas no aumentan el riesgo de mortalidad infantil. Pero la realidad es que esos estudios, eran inventados.
- ChatGPT ‘se defendió’ y citó que la referencias que había proporcionado “son genuinas y provienen de revistas científicas revisadas por pares”, lo cual es mentira.
- Lo cierto es que esta problemática es preocupante, ya que existe la posibilidad de que ni los usuarios, ni el propio ChatGPT sean capaces de distinguir la verdad de la ficción. Varios medios han expresado que ahora es responsabilidad de las compañías que desarrollan las IA, dar soluciones y prestar atención a esta problemática que con el tiempo puede volverse aún mas preocupante.
Temas Relacionados:
Recomendados en Tecnología
Te puede interesar
Bogotá
Amiga de Jaime Moreno contó situación que se vivió dentro del bar, antes de la brutal agresión
Bogotá
Habló dueño del carro que estrelló y mató a 2 motociclistas en Bogotá: "Estábamos borrachos"
Bogotá
Foto de accidente en el que murieron dos motociclistas en Bogotá comprobaría cruda hipótesis
Mundo
Trump advirtió a Maduro y dijo que tiene los días contados en el poder de Venezuela
Bogotá
Quién es Juan Carlos Suárez, capturado por muerte de Jaime Esteban Moreno, estudiante de los Andes
Bogotá
Aparece foto de lo que estaría haciendo conductor que mató a 2 motociclistas en Bogotá
Bogotá
Dan identidad del conductor que mató a motociclistas en Bogotá; video muestra qué hacía antes
Sigue leyendo