Skip to main content

Lingua Café: Árabe, Hebreo y Hostilidad: Herramientas de Información y Accesibilidad en Palestina

22.11.2023 | En conversación con Rama Salahat

Read English, اللغة العربية y Français

logo LC

Rama Salahat, nuestra invitada a esta Café Lingua Chat, es Directora de Tecnología de 7amleh - The Arab Centre for Social Media Development. 7amleh es una organización no gubernamental palestina sin ánimo de lucro cuyo objetivo es crear un espacio digital seguro, justo y libre para los palestinos y todo el mundo. La labor de 7amleh abarca una amplia gama de ámbitos, como la sensibilización a través de campañas educativas y mediáticas, la celebración de sesiones y actos de creación de redes y la elaboración de guías accesibles a todos.

Los esfuerzos de 7amleh se centran en recopilar información exhaustiva sobre las violaciones de los derechos digitales, con el objetivo de que los espacios digitales sean más justos. 7amleh publica un gran número de informes anuales, trimestrales, mensuales y semanales, que documentan cada etapa de su camino hacia la consecución de estos objetivos.

Empecemos hablando de las formas en que la Inteligencia Artificial (IA)/los algoritmos han sido beneficiosos y una amenaza en la actual crisis palestina. Por ejemplo, ¿cómo se ha utilizado la IA para censurar y silenciar contenidos sobre Gaza?

La Inteligencia Artificial (IA) y los algoritmos representan un conjunto de herramientas versátiles con enormes aplicaciones potenciales, tanto beneficiosas como preocupantes, especialmente en el contexto de la actual crisis palestina.

El mal uso de la IA puede tener consecuencias de gran alcance, pero en mi opinión, el mayor problema es la prevalencia inherente de sesgos arraigados en los sistemas de IA de uso común. La IA depende en gran medida de los datos, y una parte significativa de estos datos procede de Internet, que históricamente tiende a ser más representativa de los grupos poderosos, por ejemplo los medios de comunicación. Este sesgo en la recopilación de datos puede dar lugar a resultados sesgados y reforzar las dinámicas de poder existentes, y con la creciente dependencia de los datos y la automatización podría dar lugar a toda una nueva forma de sistema insidiosamente sesgado de fachada que tome las decisiones importantes.

En nuestro contexto, el hebreo tiene un soporte muy limitado en comparación con el árabe, lo que supone un reto para referentes de la investigación y desarrollo que estudian patrones en texto hebreo. Esto crea un desequilibrio en la accesibilidad de la IA y dificulta la toma de decisiones y recomendaciones basadas en la investigación. En mi experiencia con 7amleh, esta barrera lingüística impulsó el desarrollo de un modelo lingüístico específico para cerrar esta brecha y garantizar una representación y un análisis equitativos de los contenidos tanto en árabe como en hebreo.

Más aún, el informe “Apartheid automatizado: cómo el reconocimiento facial fragmenta, segrega y controla a la comunidad palestina en los Territorios Palestinos Ocupados”, de Amnistía Internacional, arroja luz sobre el uso de tecnologías de reconocimiento facial para la vigilancia y el control en Palestina, lo que plantea graves problemas éticos, ya que fragmenta y segrega a las comunidades, reforzando un sistema de control.

¿Puedes compartir ejemplos de IA/algoritmos que se hayan utilizado para abordar problemas sociales complejos o mejorar los procesos de toma de decisiones? ¿Ha habido algún tipo de seguimiento de la incitación al odio utilizada desde el inicio de los atentados?

En Palestina, el uso de la IA para abordar problemas sociales ha sido relativamente limitado, y su aplicación principal se ha observado en entornos comerciales más que en el contexto de los derechos humanos. En particular, 7amleh destaca como organización pionera en la utilización de la IA para abordar problemas acuciantes en Palestina.

En 7amleh, nos embarcamos en una iniciativa centrada en la lucha contra la incitación al odio y la violencia en las plataformas de las redes sociales. Hemos desarrollado un sofisticado modelo lingüístico diseñado para analizar y clasificar los casos de incitación al odio y la violencia tanto en hebreo como en árabe.

Pusimos esta herramienta en acción en marzo de 2023 durante los ataques a Huwara, donde rastreó eficazmente los casos de incitación al odio y violencia. Siguiendo con nuestro compromiso de promover la seguridad en línea, actualmente estamos utilizando este panel de análisis de IA para detectar y controlar la incitación al odio y la violencia desde el 7 de octubre.

Este uso innovador de la IA en 7amleh marca un paso fundamental en el aprovechamiento de la tecnología para hacer frente a los retos sociales, en particular en el ámbito de los derechos humanos. Aunque las aplicaciones de la IA en Palestina aún están evolucionando, iniciativas como la nuestra muestran el potencial de la tecnología para contribuir positivamente a los problemas acuciantes de la región.

¿Cuáles son los efectos negativos y positivos específicos de las redes sociales para las personas con discapacidad?

Navegar por el impacto de la IA en las redes sociales para las personas con discapacidad suscita tanto preocupaciones como consideraciones.

Una preocupación importante gira en torno a los sesgos inherentes a la IA, que podrían afectar a la precisión y eficacia de las tecnologías de asistencia diseñadas para ayudar a las personas con discapacidad.

Una preocupación importante gira en torno a los sesgos inherentes a la IA, que podrían afectar a la precisión y eficacia de las tecnologías de asistencia diseñadas para ayudar a las personas con discapacidad.

A la luz de los recientes acontecimientos desde el 7 de octubre, se ha producido un notable aumento de diversos contenidos en línea relacionados con la situación, imágenes, videos y textos. Sin embargo, la gente está empleando diversas técnicas para eludir la censura en línea, alterando los estilos de escritura o manipulando las imágenes para evadir los algoritmos automatizados. Aunque estas estrategias sirven para minimizar la censura y difundir información sobre lo que está ocurriendo, suponen un reto para las tecnologías de asistencia que leen textos en voz alta o describen imágenes, lo que puede restarles eficacia.

Otro aspecto a tener en cuenta es la funcionalidad de los algoritmos diseñados para describir imágenes para las personas con discapacidad visual. Como se sabe que la IA conlleva sesgos, surgen dudas sobre la precisión de estos algoritmos a la hora de describir imágenes sin censura. Garantizar que las personas con discapacidad tengan igualdad de acceso a datos no censurados se convierte en algo crucial, lo que suscita dudas sobre la fiabilidad de estas herramientas de IA para ofrecer una representación exacta de los contenidos en línea.

¿Cómo podemos responsabilizar a las grandes empresas tecnológicas, como Facebook (Meta), Twitter (X) y TikTok, del diseño de IA/algoritmos?

Responsabilizando a las grandes empresas tecnológicas de los sesgos algorítmicos y de IA implica enfoques multifacéticos. En primer lugar, la transparencia es crucial; las empresas deben revelar el funcionamiento interno de sus sistemas de IA, incluidos los conjuntos de datos utilizados para el entrenamiento de los algoritmos. Las auditorías de organismos independientes podrían garantizar la imparcialidad y exactitud de estos conjuntos de datos, revelando sesgos o inexactitudes que podrían perpetuar la discriminación. Además, la aplicación de estándares o normas éticas para el desarrollo y uso de la IA puede crear un marco para evitar algoritmos sesgados. Las evaluaciones periódicas, las revisiones y las mejoras continuas de los modelos de IA son esenciales para identificar y rectificar los sesgos. También pueden ser necesarios marcos jurídicos y normativas que aborden específicamente la responsabilidad algorítmica, garantizando que las empresas sean legalmente responsables de los resultados discriminatorios de sus sistemas de IA. Por último, el fomento de la diversidad en los equipos que participan en el desarrollo de la IA puede mitigar los sesgos en los conjuntos de datos y algoritmos mediante la incorporación de una gama más amplia de perspectivas y experiencias.

Muchas gracias por compartir sus experiencias y sus importantes contribuciones. ¿Cómo podemos desde Lingua Café y la comunidad de derechos digitales apoyar a 7amleh?

Gracias por darnos la oportunidad de hablar de nuestros proyectos e iniciativas.

La forma más eficaz de apoyar a 7amleh es difundir activamente nuestras iniciativas en todos los medios de comunicación. Compartir nuestro trabajo amplifica su alcance y fomenta una mayor comprensión de los retos a los que se enfrenta la comunidad palestina.

Además de sensibilizar, la colaboración es muy valiosa, ya que nos permite poner en común diversos conocimientos, creando un impacto más sólido.

Agradecemos ideas, sugerencias y reflexiones sobre cómo mejorar y ampliar nuestro trabajo. Si tiene conceptos innovadores o cree que hay formas de ampliar nuestros esfuerzos, no duden en contactarnos. Y para quienes tengan conocimientos técnicos, nos encantaría trabajar juntos para aplicar mejoras e innovaciones que contribuyan a la eficacia de nuestras iniciativas.

El apoyo financiero también es crucial, ya que somos una organización sin ánimo de lucro y dependemos de financiación externa. Las donaciones directas a través de nuestro sitio web proporcionan los recursos necesarios para mantener y ampliar nuestros esfuerzos en la lucha contra los problemas de los derechos digitales.