Aunque el mundo real parece estar lejos de experimentar una situación apocalíptica como la de la película, en la que las máquinas llegan a matar a los humanos, el filósofo y economista alemán Christoph Lütge aterrizó el tema hablando de los retos de la inteligencia artificial en el mundo real.

En su intervención, el economista y filósofo alemán subraya que en el afán de desarrollar la inteligencia artificial se han presentado problemas que evidencian vacíos. Sin embargo, y afortunadamente, esos inconvenientes todavía no llegan al punto de amenazar la vida como la conocemos, pero representan problemas mucho más terrenales, alejados de la figura del androide violento o las máquinas que se alimentan de humanos de ‘Matrix’, pero no por ello menos cruciales.

El panelista tomó como ejemplo dos herramientas para selección de personal implementadas por gigantes tecnológicos, las cuales habrían incurrido en discriminación de género al “seguir reglas inapropiadas o malinterpretando procesos o situaciones”.

Además de un software usado por Amazon entre 2014 y 2017, Google habría mostrado menos propuestas de trabajo para trabajos mejor pagos a quienes se identificaban con género femenino, mencionó Lütge.

Eso se suma a problemas referentes al uso indebido de información privada y al hecho de que los robots estarían comenzando a desplazar a la mano de obra humana cada vez más, lo que plantea un dilema cada vez más común: “La inteligencia artificial puede ser una ayuda, no un aniquilador de trabajos”, sostiene el experto.

Huawei Conect

Artículo relacionado

Este es el plan de Huawei para adueñarse del mercado de inteligencia artificial (IA)

¿Qué tiene que ver esto con las famosas leyes de la robótica de las obras de ciencia ficción de Isaac Asimov? Todo se basa en el espíritu que dio origen a esos postulados, que era el de evitar que las máquinas lleguen a rebelarse contra sus creadores.

Las leyes de la robótica suelen ser referencias frecuentes al hablar de inteligencia artificial, aún en entornos científicos. Se trata de tres reglas con las que se programan los robots positrónicos del universo ficticio del autor ruso, tal como lo recuerda El País:

  1. “Un robot no puede dañar a un ser humano ni, por inacción, permitir que un ser humano sufra daño.
  2. Un robot debe cumplir las órdenes de los seres humanos, excepto si dichas órdenes entran en conflicto con la Primera Ley.
  3. Un robot debe proteger su propia existencia en la medida en que ello no entre en conflicto con la Primera o la Segunda Ley”.

Aunque la propuesta de Asimov ha dado pie para que la ciencia ficción se deleite para crear universos posapocalípticos y distopías alucinantes, los problemas a los que Lütge apunta son los primeros que la IA deberá enfrentar en la realidad.

En su concepto, la ética será factor clave para resolverlos, para lo cual formuló los que llama “Principios para una inteligencia artificial ética”. Aunque se trata de puntos arbitrarios y subjetivos, propuestos incluso sin ánimo manifiesto de convertirlos en axiomas universales, sus alcances pueden llegar a sentar un precedente para la ciencia.

Estos puntos no están formulados como las leyes, a manera de órdenes para las máquinas, que actualmente tampoco son capaces de procesarlas adecuadamente, sino que  estarían orientados a ser principios para quienes desarrollan la IA para hacer su trabajo con un “enfoque centrado en el ser humano”:

  1. Beneficencia: Promover el bienestar, preservar la dignidad y conservar el planeta.
  2. No maldad: Defender la privacidad, la seguridad y la precaución, a la que llama “límite superior de capacidades futuras”, lo que implicaría ponerse límites a lo que puede llegar a crearse con la IA.
  3. Autonomía: Lograr un equilibrio entre el poder de toma de decisiones que se reservan los humanos y lo que la IA puede decidir, impidiendo de esta manera que un hipotético libre albedrío de las máquinas atente contra sus creadores.
  4. Justicia: Creando beneficios que son (o deberían ser) compartidos, preservando la solidaridad, haciendo que la inteligencia artificial se conserve neutral.
  5. Explicabilidad: Permitiendo los demás principios a través de la inteligibilidad y la responsabilidad.

El tema tampoco sería nuevo dentro de esferas más especializadas de expertos en la materia, pero pocos se han aventurado a formular tesis y propuestas siquiera cercanas a las del filósofo alemán, que seguramente dará de qué hablar con ello en un futuro no muy lejano.