El pasado 28 de junio de 2020 el canal de Radic, Agadmator’s Chess Channel, fue bloqueado por contenido “dañino y peligroso” mientras estaba en un en vivo con el maestro en ajedrez Hikaru Nakamura, publica el diario The Independent.

En aquel momento YouTube no dio ninguna razón en específico para cerrar el canal, que logró superar el millón de suscriptores una vez le quitaron el bloqueo, explica el mismo medio.

El canal de Radic, oriundo de Croacia, se restableció 24 horas después. El campeón de ajedrez pensó que había sido expulsado temporalmente de la plataforma de Google por una referencia a “negro contra blanco”, a pesar de que estaba hablando de ajedrez en ese momento, agrega el rotativo británico.

Las políticas de YouTube son revisadas por humanos, pero también, y en gran porcentaje, por algoritmos de inteligencia artificial, lo que supone que la AI podría malinterpretar comentarios que están dentro de diferentes contextos.

Por este caso, informáticos de la Universidad Carnegie Mellon (CMU) en Estados Unidos hicieron una investigación sobre las fallas de inteligencia artificial que no tienen en cuenta los contextos.

Lee También

Frases como “blancas atacan, blanca mata a negra, las negras están amenazadas. Negra se come a blanca”, podrían ser consideradas como “racistas” en cualquier ámbito de la vida, pero si hablamos de ajedrez no tiene ninguna intención de ofender a nadie.

El estudio de la Universidad Carnegie Mellon identificó que este tipo de frases “confunden a algoritmos de inteligencia artificial entrenados para detectar el racismo y otros discursos de odio”.

Si confían en la inteligencia artificial para detectar el lenguaje racista, este tipo de accidente puede suceder”, dijo Ashiqur KhudaBukhsh, científico del proyecto en el Instituto de Tecnologías del Lenguaje de CMU, citado por The Independent.

KhudaBukhsh llegó a esta conclusión, hace unas semanas, después de probar más de 680.000 comentarios recogidos de los 5 canales más populares en YouTube centrados en el ajedrez.

Luego de revisar manualmente 1.000 comentarios que la AI había clasificado como incitación al odio, descubrió que el 82 % de habían sido clasificados erróneamente por palabras como “negro”, “blanco”, “ataque” y “amenaza”, los cuales se usan comúnmente en el lenguaje de este deporte, señala el rotativo inglés.