/AI demuestra que es un mal sustituto de los verificadores de contenido humano durante el bloqueo
AI demuestra que es un mal sustituto de los verificadores de contenido humano durante el bloqueo

AI demuestra que es un mal sustituto de los verificadores de contenido humano durante el bloqueo


La propagación del nuevo coronavirus en todo el mundo ha sido rápida y sin precedentes. En respuesta, las compañías tecnológicas se han apresurado para garantizar que sus servicios aún estén disponibles para sus usuarios, mientras que también haciendo la transición de miles de sus empleados al teletrabajo. Sin embargo, debido a preocupaciones de privacidad y seguridad, las empresas de medios sociales no han podido hacer la transición de todos sus moderadores de contenido al trabajo remoto. Como resultado, se han vuelto más dependientes de la inteligencia artificial para tomar decisiones de moderación de contenido. Facebook y Youtube admitió tanto en sus anuncios públicos en los últimos meses, y Gorjeo parece estar tomando una táctica similar. Esta nueva dependencia sostenida de la IA debido a la crisis del coronavirus es preocupante, ya que tiene consecuencias significativas y continuas para los derechos de libre expresión de los usuarios en línea.

El amplio uso de la IA para la moderación de contenido es preocupante porque en muchos casos, estas herramientas automatizadas han sido encontrado ser inexacto. Esto se debe en parte a que hay una falta de diversidad en las muestras de entrenamiento en las que se entrenan los modelos algorítmicos. Además, el habla humana es fluida y la intención es importante. Eso hace que sea difícil entrenar un algoritmo para detectar matices en el habla, como lo haría un humano. Además, el contexto es importante al moderar contenido. Los investigadores han documentado instancias en las que las herramientas automatizadas de moderación de contenido en plataformas como YouTube erróneamente categorizó videos publicados por ONG que documentan abusos de los derechos humanos por parte de ISIS en Siria como contenido extremista y los eliminó. Estaba bien documentado incluso antes de la pandemia actual: sin un ser humano en el círculo, estas herramientas a menudo no pueden comprender con precisión y tomar decisiones sobre casos relacionados con el habla en diferentes idiomas, comunidades, regiones, contextos y culturas. El uso de moderación de contenido solo de IA agrava el problema.

Las plataformas de Internet han reconocido los riesgos que la dependencia de la IA representa para el discurso en línea durante este período, y han prevenido usuarios que deberían esperar más errores relacionados con la moderación de contenido, particularmente relacionados con “falsos positivos”, que es contenido que se elimina o evita que se comparta a pesar de no violar realmente la política de una plataforma. Sin embargo, estas declaraciones entran en conflicto con las defensas de algunas plataformas de sus herramientas automatizadas, que argumentan que solo eliminan el contenido si están muy seguros de que el contenido viola las políticas de la plataforma. Por ejemplo, el sistema automatizado de Facebook amenazado prohibir a los organizadores de un grupo que trabaja para coser a mano las máscaras en la plataforma de comentar o publicar. El sistema también señaló que el grupo podría eliminarse por completo. Más problemático aún, el sistema automatizado de YouTube ha sido incapaz de detectar y eliminar un número significativo de videos que anuncian máscaras faciales caras y vacunas y curas fraudulentas. Estos errores impulsados ​​por la inteligencia artificial subrayan la importancia de mantener a un humano al tanto cuando se toman decisiones relacionadas con el contenido.

Durante el cambio actual hacia una mayor moderación automatizada, plataformas como Twitter y Facebook también han compartido que van a hacer triajes y priorizarán los derribos de ciertas categorías de contenido, incluidos los relacionados con COVID-19 desinformación y desinformación. Facebook también ha enumerado específicamente que priorizará la eliminación del contenido que podría representar una amenaza o daño inminente para los usuarios, como el contenido relacionado con la seguridad infantil, el suicidio y las autolesiones y el terrorismo, y que la revisión humana de estas categorías de alta prioridad de el contenido ha sido en transición a algunos empleados a tiempo completo. Sin embargo, Facebook compartió que debido a este enfoque de priorización, los informes en otras categorías de contenido que no se revisan dentro de las 48 horas posteriores a la notificación se cierran automáticamente, lo que significa que el contenido se deja. Esto podría resultar en una cantidad significativa de contenido dañino restante en la plataforma.

VB Transform 2020 en línea – 15-17 de julio. Únase a los principales ejecutivos de IA: Regístrese para la transmisión en vivo gratis.

Además de expandir el uso de la inteligencia artificial para moderar el contenido, algunas empresas también han respondido a las limitaciones de capacidad al revertir sus procesos de apelación, lo que agrava la amenaza a la libre expresión. Facebook, por ejemplo, ya no permite usuarios para apelar decisiones de moderación. Por el contrario, los usuarios ahora pueden indicar que no están de acuerdo con una decisión, y Facebook simplemente recopila estos datos para futuros análisis. Youtube y Gorjeo todavía ofrecen procesos de apelación, aunque YouTube compartió que dadas las limitaciones de recursos, los usuarios verán demoras. Los procesos de apelación oportuna sirven como un mecanismo vital para que los usuarios obtengan reparación cuando su contenido se elimina erróneamente, y dado que se les ha dicho a los usuarios que esperen más errores durante este período, la falta de un proceso de reparación significativo es un golpe significativo para los usuarios. derechos de expresión.

Además, durante este período, compañías como Facebook han decidido confiar más en herramientas automatizadas para detectar y revisar anuncios, lo que ha demostrado ser un proceso desafiante ya que las compañías han introducido políticas para evitar que los anunciantes y vendedores se beneficien de los temores públicos relacionados con la pandemia y vendan artículos falsos. Por ejemplo, CNBC encontró anuncios fraudulentos para máscaras faciales en Google que prometido protección contra el virus y afirmó que estaban “aprobados por el gobierno para bloquear hasta el 95% de los virus y bacterias en el aire”. Stock limitado.” Esto genera dudas sobre si estas herramientas automatizadas son lo suficientemente robustas como para atrapar contenido dañino y cuáles son las consecuencias de los anuncios dañinos que se escapan de las grietas.

Los problemas de la gobernanza del contenido en línea y la libre expresión en línea nunca han sido más importantes. Miles de millones de personas ahora están confinadas en sus hogares y dependen de Internet para conectarse con otros y acceder a información vital. Los errores de moderación causados ​​por las herramientas automatizadas pueden provocar la eliminación de información no violenta, autorizada o importante, evitando así que los usuarios se expresen y accedan a información legítima durante una crisis. Además, a medida que el volumen de información disponible en línea ha crecido durante este período de tiempo, también lo ha hecho la cantidad de desinformación y desinformación. Esto ha aumentado la necesidad de una moderación responsable y efectiva que pueda identificar y eliminar contenido dañino.

La proliferación de COVID-19 ha provocado una crisis, y las compañías tecnológicas, como el resto de nosotros, han tenido que adaptarse y responder rápidamente sin previo aviso. Pero hay lecciones que podemos extraer de lo que está sucediendo en este momento. Los encargados de formular políticas y las empresas han promocionado continuamente las herramientas automatizadas como una solución de plata para los problemas de gobernanza de contenido en línea, a pesar del rechazo de grupos de la sociedad civil. A medida que las empresas confían más en la toma de decisiones algorítmicas durante este tiempo, estos grupos de la sociedad civil deberían trabajar para documentar ejemplos específicos de las limitaciones de estas herramientas automatizadas para comprender la necesidad de una mayor participación de los humanos en el futuro.

Además, las empresas deberían usar este tiempo para identificar las mejores prácticas y fallas en el espacio de gobernanza de contenido y para diseñar un plan de respuesta a la crisis que respete los derechos para futuras crisis. Es comprensible que haya algunos lapsos desafortunados en los recursos y recursos disponibles para los usuarios durante este tiempo sin precedentes. Pero las empresas deben asegurarse de que estas respuestas de emergencia se limiten a la duración de esta crisis de salud pública y no se conviertan en la norma.

Spandana Singh es un analista de políticas que se enfoca en problemas de IA y plataforma en New America’s Instituto de tecnología abierta.





Source link