Twitter suspendió la cuenta de un asesor del ultra derechista partido Vox en España, porque incumplió las reglas que prohíben la incitación al odio. La cuenta cancelada pertenece a Bertrand Ndongo, mano derecha de Rocío Monasterio, líder de Vox en la Comunidad de Madrid. En ella, publicó un trino xenófobo en el que acusaba de ladrones a jóvenes inmigrantes que simplemente lucían ropa de marca.

(Le puede interesar: Marbelle volvió a cuestionar a Francia Márquez después de las denuncias por racismo)

Es la misma red social que en Colombia permanece de brazos cruzados mientras tiene lugar una degradante campaña racista contra la candidata vicepresidencial Francia Márquez. Desde cuentas de reconocidos líderes políticos se está diciendo de todo contra Márquez como consecuencia de su orgullo étnico.

¿Por qué Twitter no se preocupa por la violación de las reglas de uso de la red social, en las que está expresamente prohibido incitar el odio político o racial?

Durante la campaña presidencial que llevó a Joe Biden a la Casa Blanca, hace algo más de un año, el locuaz fundador de Twitter, Jack Dorsey, fue un enjundioso defensor del respeto en redes, y la empresa no dudó en aplicar diversas sanciones sobre las cuentas de Donald Trump y otros líderes republicanos que incitaron al odio.

Más aun, Trump fue expulsado de Facebook, Youtube y Twitter tras el asalto al Capitolio, en enero de 2021, y las severas medidas impuestas tienen hoy al expresidente tratando de crear una red social propia, porque ya no podrá utilizar el escenario tuitero para ofender, amenazar y difundir noticias falsas contra los demócratas.

La diferencia entre aquellos países y Colombia es que allá existe una sociedad civil que presiona a las empresas para que adopten medidas de auto control, y los gobiernos establecen regulaciones para proteger la democracia. Nada de esto ocurre en nuestro país.

Sadi Contreras, director de regulación de contenidos tecnológicos en AlCentro, cree que se necesitan regulaciones firmes por parte del Estado.

“Los Estados deben entrar en temas tan delicados como la protección de datos, el racismo y los riesgos sobre los menores de edad”, explica. “Los gobiernos deben tomar partido y proteger a los ciudadanos a través de la regulación”, agrega. Contreras cita el caso argentino, en donde esta semana el gobierno anunció que los cambios que planea introducir WahtsApp en los términos de uso de esa plataforma no entrarán en vigor en ese país hasta que WhatsApp acepte concertar con el Estado, “porque consideran que los nuevos términos son abusivos contra los ciudadanos”.

(Vea tambiénSeñalan a jugadora de América por racismo contra rival de Atlético Bucaramanga en partido)

Lo que dicen los reglamentos de Twitter

Una lectura de los términos de uso de la plataforma nos hace erizar de emoción: “No se permite fomentar la violencia contra otras personas ni atacarlas o amenazarlas directamente por motivo de su raza”.

Más adelante señala: “Prohibimos dirigir a las personas insultos, tropos u otros contenidos que pretendan deshumanizar, degradar o reforzar estereotipos negativos o dañinos sobre una categoría protegida.”

Twitter identifica como conductas de incitación al odio y prohíbe expresamente “fomentar la violencia contra otras personas ni atacarlas o amenazarlas directamente por motivo de su raza, origen étnico, nacionalidad, pertenencia a una casta, orientación sexual, género, identidad de género, afiliación religiosa, edad, discapacidad o enfermedad grave”.

La idea de proteger a las personas de los usos violentos o racistas se repite a lo largo del documento. “Nuestro compromiso es combatir el abuso motivado por el odio, el prejuicio o la intolerancia, en particular, el abuso cuyo objetivo es silenciar las voces de quienes han sido históricamente marginados. Por esta razón, prohibimos el comportamiento abusivo dirigido hacia las personas con base en las categorías protegidas.”

Racismo en el algoritmo de Twitter

Twitter parece sostener una extraña relación con el racismo. Sus reglamentos de uso lucen políticamente correctos, pero sus algoritmos han sido seriamente cuestionados. En 2020 se descubrió que cuando una fotografía es demasiado grande, un algoritmo en Twitter la recorta automáticamente para mostrar la parte que considera más relevante, y si hay un hombre afrodescendiente y un blanco anglosajón, siempre selecciona al sujeto blanco. Incluso si había dos perros en la foto, seleccionaba al canino blanco.

La denuncia la hizo en su momento el experto Toni Arcieri, quien descubrió el sesgo racial. luego de varios experimentos. Los responsables de tecnología en la plataforma reconocieron el error y prometieron mejorar el algoritmo. Se trata de los conocidos problemas del “machine learning” (aprendizaje de máquina), tan aplaudido por estos días, aunque todavía a la espera de una solución de fondo para el delicado asunto de los sesgos y prejuicios raciales o de género que heredan de sus desarrolladores, la mayoría de ellos hombres blancos de la clase media norteamericana.

Lee También

De tal modo que, también desde “adentro” la popular plataforma ha tenido problemas con el color de la piel. Los algoritmos pueden perfeccionarse y erradicar de ellos los sesgos, pero aún queda por atender el uso indebido que los millones de usuarios realizan a diario. El pasado mes de febrero la Agencia Catalana de Cooperación, junto con otras instituciones, publicó los resultados de una investigación sobre racismo digital en España: “Racismo digital y Covid-19. Discursos racistas y antirracistas en Twitter durante la pandemia”. Al menos el 8 por ciento de los trinos relacionados con coronavirus acusan directamente de la expansión del Covid a los trabajadores agrícolas extranjeros, los inmigrantes. Y el 36 por ciento de los trinos clasificados como “neutros”, aquellos con datos y cifras, en realidad camuflaban sesgos racistas en la conversación sobre pandemia y migración.

Es una dolencia general en todas las redes sociales, no solo en Twitter. Tendayi Achiume, relatora especial de Naciones Unidas sobre racismo informó que, en una revisión de 189 algoritmos de reconocimiento facial en el mundo, se encontró que la mayoría de ellos tenían entre 10 y 100 veces más probabilidades de identificar de manera incorrecta una fotografía de un rostro afrodescendiente o de Asia oriental, en comparación con un rostro blanco. Los algoritmos y las tecnologías digitales son desarrollados en “entornos de poca diversidad”, señaló la relatora.

Hay suficientes evidencias de que los servicios tecnológicos rentables tienden a producir discriminación racial o de género; la “maximización de las ganancias en muchos casos reforzará o agravará la desigualdad racial y étnica”. Para Sadi Contreras no cabe duda de que “estas empresas tecnológicas tienen modelos económicos y comerciales que los benefician de la información errónea, la discriminación y la intolerancia”.

Solo la presión de grupos organizados de la sociedad civil hará que Twitter, Facebook y Youtube presten atención en Colombia a este flagelo. Probablemente no lo harán por voluntad propia, como pudo verse en Estados Unidos y Europa. Si los colombianos no hacen algo, tendremos la más tóxica y degradante temporada electoral en muchos años.