En la teoría del conocimiento, el concepto de tábula rasa plantea que las personas nacen con la mente ‘vacía’, sin cualidades innatas, con lo que todos los conocimientos y habilidades tienen su origen únicamente en el aprendizaje, a través de experiencias y percepciones sensoriales. Una idea análoga subyace a varios desarrollos de inteligencia artificial (IA), especialmente la generativa, como los robots conversacionales del tipo ChatGPT.

(Le interesa: 3 cosas que puede hacer con ChatGPT, pero que no debería si quiere evitar un lío)

Los interesados en planteare cualquier tema hipotético a estos chatbots creen que, tan pronto le hacen una pregunta, esa IA genera contenido original a partir de datos existentes, usando algoritmos y redes neuronales avanzadas para aprender de textos e imágenes, y luego producir contenido nuevo y único. Bueno, sí lo hace, pero a partir de parámetros predeterminados.

Marcelo Granieri, profesor de OBS Business School, advierte precisamente que uno de los riesgos más importantes asociados con la inteligencia artificial generativa (IAG) “es la posibilidad de generar contenido sesgado. Si la IA es entrenada con [un] tipo de datos, puede generar contenido que refleje […] sesgos, lo que podría tener consecuencias graves en campos como la política, la justicia, medioambiente, inmigración, economía, etc.”.

Con todo, el robot conversacional ChatGPT ya invadió las esferas académicas y profesionales. Políticos y legisladores ya lo usan para elaborar discursos y leyes; algunos gobiernos pretenden convertirlo a sus causas y hay quienes temen que se vuelva un arma difícil de detectar en campañas de influencia.

En Japón, un parlamentario interpeló al primer ministro a finales de marzo con preguntas propuestas por ChatGPT. En Francia, el robot redactó una enmienda al proyecto de ley de los Juegos Olímpicos de 2024.

Incluso el presidente francés, Emmanuel Macron, mencionó en Twitter recientemente la inteligencia artificial de OpenAI, publicando una captura de pantalla de un intercambio con el chatbot que consideraba a Europa “competitiva” en la carrera por la innovación.

La tecnología estadounidense detrás de ChatGPT no fue, sin embargo, concebida para emitir tales juicios, porque solo responde con las palabras más acordes a una solicitud, por lo cual puede sostener alternativamente posiciones opuestas.

Lee También

La popularidad de la IA le valió a Macron las burlas de la secretaria general de la central gremial CGT, Sophie Binet, que afirmó que las declaraciones televisivas del mandatario para tratar de desactivar la crisis social provocada por la reforma de las jubilaciones “podría haberlas hecho ChatGPT”.

Los políticos intentan aprovechar las posibilidades del robot, que contaba con más de 100 millones de usuarios activos a principios de año, apenas dos meses después de su lanzamiento.

Según Pascal Marchand, profesor de ciencias de la información en la Universidad de Toulouse, las IA como ChatGPT “son capaces de generar discursos muy fieles” a los marcadores ideológicos tradicionales de los políticos.

Pero al no poder innovar, son menos relevantes para los partidos que quieren “adaptarse a la coyuntura y tener un discurso acorde con los tiempos”.

Inteligencia artificial conservadora o socialista

Si ChatGPT fuera inofensivo, no se entendería por qué la empresa tecnológica rusa Sber anunció este lunes la creación de su propio robot conversacional, sumándose así a la actual carrera por la inteligencia artificial, simbolizada por el fenómeno desatado por el programa estadounidense ChatGPT.

Sber “lanza su propia versión” de un bot conversacional, cuyo nombre será GigaChat y representará “una primicia” para Rusia, destacó esta empresa estatal en un comunicado publicado en su página web.

Los partidos más derechistas creen que el ChatGPT es “woke” (un término usado despectivamente por sectores conservadores hacia una supuesta complacencia de la izquierda con las reivindicaciones de las minorías) y que está impregnado de los valores liberales y progresistas de Silicon Valley.

En Francia, el presidente del partido Agrupación Nacional (RN), Jordan Bardella, agita en las redes el espectro de “otro gran reemplazo” de la inteligencia artificial, en referencia a un supuesto plan de “gran reemplazo” demográfico que algunos sectores de la ultraderecha atribuyen a las olas migratorias hacia Europa.

OpenAI, o sus competidores como Bard (desarrollado por Google), y próximamente LlaMA (de Meta), tienen, sin duda, sesgos, como resultado de su entrenamiento a partir de un gran corpus de textos y filtros agregados por sus creadores para limitar la generación de comentarios que sean reprensiones.

En Nueva Zelanda, el investigador David Rozado diseñó, sin publicarlo, el robot RightWingGPT, una IA entrenada para producir una argumentación conservadora, que apoye la familia tradicional, los valores cristianos y el libre mercado.

Elon Musk, el nuevo jefe de Twitter e inversionista de OpenAI, dijo en una entrevista durante el lanzamiento del emprendimiento que quería lanzar TruthGPT, una IA menos “políticamente correcta” que ChatGPT.

Por su parte, el gobierno chino promulgo reglas para que la IA generativa “refleje los valores socialistas fundamentales”.

“Si alguien desarrolla un robot conversacional que siempre va en la misma dirección, podrá proporcionar elementos de lenguaje a personas convencidas, pero interesará a mucha menos gente”, juzga Pascal Marchand, para quien no vale la pena “fantasear demasiado con la manipulación masiva que este medio podría representar”.