Bogotá
Conmoción por sujeto que mató a anciana de 72 años en Bogotá e hirió a puñal a otra mujer
Tú navegador no es compatible para reproducir este audio
El algoritmo de YouTube, manejado por inteligencia artificial, bloqueó el canal de Antonio Radic, con más de un millón de suscriptores, por considerarlo racista
El pasado 28 de junio de 2020 el canal de Radic, Agadmator’s Chess Channel, fue bloqueado por contenido “dañino y peligroso” mientras estaba en un en vivo con el maestro en ajedrez Hikaru Nakamura, publica el diario The Independent.
En aquel momento YouTube no dio ninguna razón en específico para cerrar el canal, que logró superar el millón de suscriptores una vez le quitaron el bloqueo, explica el mismo medio.
El canal de Radic, oriundo de Croacia, se restableció 24 horas después. El campeón de ajedrez pensó que había sido expulsado temporalmente de la plataforma de Google por una referencia a “negro contra blanco”, a pesar de que estaba hablando de ajedrez en ese momento, agrega el rotativo británico.
Las políticas de YouTube son revisadas por humanos, pero también, y en gran porcentaje, por algoritmos de inteligencia artificial, lo que supone que la AI podría malinterpretar comentarios que están dentro de diferentes contextos.
Por este caso, informáticos de la Universidad Carnegie Mellon (CMU) en Estados Unidos hicieron una investigación sobre las fallas de inteligencia artificial que no tienen en cuenta los contextos.
Frases como “blancas atacan, blanca mata a negra, las negras están amenazadas. Negra se come a blanca”, podrían ser consideradas como “racistas” en cualquier ámbito de la vida, pero si hablamos de ajedrez no tiene ninguna intención de ofender a nadie.
El estudio de la Universidad Carnegie Mellon identificó que este tipo de frases “confunden a algoritmos de inteligencia artificial entrenados para detectar el racismo y otros discursos de odio”.
“Si confían en la inteligencia artificial para detectar el lenguaje racista, este tipo de accidente puede suceder”, dijo Ashiqur KhudaBukhsh, científico del proyecto en el Instituto de Tecnologías del Lenguaje de CMU, citado por The Independent.
KhudaBukhsh llegó a esta conclusión, hace unas semanas, después de probar más de 680.000 comentarios recogidos de los 5 canales más populares en YouTube centrados en el ajedrez.
Luego de revisar manualmente 1.000 comentarios que la AI había clasificado como incitación al odio, descubrió que el 82 % de habían sido clasificados erróneamente por palabras como “negro”, “blanco”, “ataque” y “amenaza”, los cuales se usan comúnmente en el lenguaje de este deporte, señala el rotativo inglés.
Conmoción por sujeto que mató a anciana de 72 años en Bogotá e hirió a puñal a otra mujer
Este es el país de América con la costa marítima más larga del mundo: más de 200.000 km
Tristeza para quienes quieren viajar a Estados Unidos: negarán visas a estos extranjeros
Motociclista murió atropellado por volqueta en la Boyacá (Bogotá) e imágenes estremecen
Les subirán el salario (desde ya) a miles de trabajadores en Colombia: el más alto en años
Metro de Bogotá, en riesgo por amenazas de Trump y posibles tensiones con Gobierno Petro
Bancolombia explicó cobro de $ 28.000 a ciertos clientes: así será pago obligatorio
Muere mamá de exintegrante de 'La casa de los famosos' y conmueve con triste despedida
Sigue leyendo