OpenAI refuerza la protección infantil en ChatGPT: así cambiarán los controles y la privacidad para menores

Tecnología
Tiempo de lectura: 5 min
por: 

El Espectador es el periódico más antiguo del país, fundado el 22 de marzo de 1887 y, bajo la dirección de Fidel Cano, es considerado uno de los periódicos más serios y profesionales por su independencia, credibilidad y objetividad.

Visitar sitio

OpenAI refuerza medidas para proteger a menores en ChatGPT, priorizando seguridad sobre privacidad.

Sam Altman, director ejecutivo de OpenAI, anunció recientemente nuevas directrices enfocadas en salvaguardar a los menores de 18 años que interactúan con ChatGPT, el popular sistema de inteligencia artificial conversacional. Aunque actualmente la plataforma fue pensada para usuarios de más de 13 años de edad, OpenAI ha comenzado a trabajar en la implementación de un sistema predictivo de edad, así como en el desarrollo de mecanismos de control parental más rigurosos para impedir el acceso de menores no autorizados. Altman fue enfático al indicar que, ante la duda, se dará prioridad a la seguridad frente a la privacidad y a la libertad de acción de los adolescentes, lo que podría implicar la exigencia de identificaciones y, por ende, un complejo equilibrio entre salvaguarda y confidencialidad para los usuarios, según la fuente original.

Las nuevas políticas de OpenAI surgen en un momento en el que la regulación y las consideraciones éticas en torno a la inteligencia artificial (IA) ocupan un lugar primordial en la agenda internacional. La Comisión Europea, en un informe reciente, subraya la urgencia de establecer marcos de gobernanza sólidos para tecnologías de IA, remarcando la necesidad de proteger especialmente a los grupos más vulnerables, como los menores. En ese contexto, crecen las preocupaciones por los riesgos asociados a la interacción infantil y adolescente con sistemas automatizados, dada su exposición creciente a contenidos inadecuados y potencialmente dañinos.

La Academia Americana de Pediatría, por su parte, advierte del peligro que supone para los jóvenes el contacto no regulado con plataformas de IA, señalando que podrían derivarse alteraciones psicológicas o influencias negativas en su desarrollo. Las medidas divulgadas por OpenAI incluyen la restricción de conversaciones sobre temas especialmente sensibles, tales como sexualidad o autolesiones, y establecen protocolos claros para situaciones de peligro extremo. Por ejemplo, si un adolescente manifiesta ideas suicidas, se buscará contactar inmediatamente a sus padres o, en su defecto, a las autoridades competentes, siguiendo el consejo de organizaciones como la Organización Mundial de la Salud (OMS).

No obstante, las iniciativas han suscitado críticas desde organizaciones especializadas en derechos digitales, que alertan sobre los riesgos inherentes al exigir identificaciones, como posibles vulneraciones de la privacidad para adultos y adolescentes, además de propiciar situaciones discriminatorias. Altman, sin embargo, defiende la postura de la compañía, argumentando que el acceso a contenido sensible requiere regulaciones más estrictas y transparencia, como también lo recomienda el Centro para la Democracia y Tecnología.

Estas decisiones ponen de manifiesto la tensión constante entre innovación y responsabilidad social, un debate creciente en el ámbito internacional. El periódico The New York Times destaca cómo la comunidad experta y los entes regulatorios avanzan en la configuración de normativas que buscan armonizar el desarrollo de la IA con la protección de sus usuarios, especialmente cuando servicios como ChatGPT adquieren un alcance masivo. La adopción generalizada de sistemas para predecir la edad y protocolos para acciones de emergencia representa una tendencia que podría marcar el futuro de la industria tecnológica.

¿Por qué la identificación de usuarios menores plantea dilemas de privacidad? Esta pregunta toma relevancia porque la exigencia de documentos de identidad a menores podría servir como barrera de protección, pero, al mismo tiempo, introduce incertidumbre sobre el manejo de datos personales bajo el control de empresas tecnológicas. Diversas organizaciones señalan que almacenar o verificar estas identificaciones eleva los riesgos de filtraciones o usos indebidos, lo que obliga a las compañías a perfeccionar sus protocolos y a mantener elevados niveles de transparencia y control.

El debate sobre este procedimiento se intensifica aún más cuando se considera la privacidad de jóvenes y adultos por igual, quienes pueden sentirse inhibidos al compartir sus datos personales en plataformas digitales. La clave está en que cualquier método que busque proteger a los menores debe también considerar los derechos fundamentales a la confidencialidad y la minimización de datos privados, tal como sugieren expertos citados en el artículo.

¿Qué implica un sistema de predicción de edad basado en IA? Ante la necesidad de evitar el acceso de menores no autorizados, OpenAI desarrolla un sistema de predicción de edad que utiliza inteligencia artificial para estimar, a partir de la interacción, si el usuario corresponde al grupo etario apropiado. Este tipo de métodos busca reducir los riesgos de suplantación y asegurar que los controles parentales sean más eficaces.

Sin embargo, la precisión de estas herramientas aún está en desarrollo y presentan desafíos técnicos y éticos, ya que el margen de error podría llevar tanto a la exclusión injusta de usuarios legítimos como al acceso inadvertido de menores. Además, la confianza en estos sistemas dependerá de la transparencia del proceso, la capacidad de los padres para intervenir y la protección de los datos involucrados, cuestiones todas que, según las fuentes señaladas, son prioritarias en el actual panorama normativo sobre inteligencia artificial.


* Este artículo fue curado con apoyo de inteligencia artificial.

Temas Relacionados:

Te puede interesar

Sigue leyendo