Skip to main content

Lingua Café: Arabe, Hébreu et Hostilité : Outils d'information et d'Accessibilité en Palestine

22.11.2023 | Une Conversation avec Rama Salahat du Centre 7amleh

Read in English, اللغة العربية et Español

logo LC

Rama Salahat, notre invitée pour cette causerie du Café Lingua, est directrice de la technology chez “7amleh - Le Centre arabe pour le développement des médias sociaux". “7amleh” est une organisation non gouvernementale palestinienne à but non lucratif qui vise à créer un espace numérique sûr, équitable et gratuit pour les Palestiniens et pour tout le monde. Le travail de “7amleh” couvre un large éventail de domaines, notamment la sensibilisation par le biais de campagnes éducatives et médiatiques, la tenue de sessions et d’événements de réseautage, et la préparation de guides accessibles à tous.

Les efforts de 7amleh se concentrent sur la collecte d’informations approfondies sur les violations des droits numériques, dans le but de rendre les espaces numériques plus équitables. “7amleh” publie un grand nombre de rapports annuels, trimestriels, mensuels et hebdomadaires, documentant chaque étape de son parcours parcours en vue la réalisation de ces objectifs.

Commençons par parler de la manière dont l’intelligence artificielle (IA) et les algorithmes se sont révélés bénéfiques et menaçants dans le cadre de la crise palestinienne actuelle. Par exemple, comment l’IA a-t-elle été utilisée pour censurer et réduire au silence les contenus concernant Gaza ?

L’intelligence artificielle (IA) et les algorithmes représentent une boîte à outils polyvalente avec de vastes applications potentielles, à la fois bénéfiques et préoccupantes, en particulier dans le contexte de la crise palestinienne actuelle.

L’utilisation abusive de l’IA peut avoir des conséquences considérables, mais à mon avis, le plus gros problème est la prévalence inhérente des préjugés enracinés dans les systèmes d’IA couramment utilisés.

L’IA s’appuie fortement sur des données, et une part importante de ces données provient d’Internet, qui tend historiquement à être plus représentatif des groupes puissants, comme les médias par exemple. Ce biais dans la collecte des données peut conduire à des résultats faussés et renforcer les dynamiques de pouvoir existantes. Avec la dépendance croissante à l’égard des données et de l’automatisation, il pourrait en résulter une toute nouvelle forme de système insidieusement biaisé qui prendrait les décisions importantes.

Un autre aspect problématique de l’utilisation de l’IA est la variance du soutien pour les différentes langues. Dans notre contexte, l’hébreu bénéficie d’un soutien beaucoup plus limité que l’arabe, ce qui pose un problème aux chercheurs et aux développeurs qui étudient des modèles dans le texte hébreu, créant un déséquilibre dans l’accessibilité de l’IA et rendant plus difficile la prise de décisions et la formulation de recommandations fondées sur la recherche. Dans mon expérience avec 7amleh, cette barrière linguistique a motivé le développement d’un modèle linguistique dédié pour combler cette lacune et assurer une représentation et une analyse équitables du contenu arabe et hébreu.

Dans son rapport intitulé “Automated Apartheid : How facial recognition fragments, segregates and controls Palestinians in the OPT” (L’apartheid automatisé : comment la reconnaissance faciale fragmente, sépare et contrôle les Palestiniens dans les territoires palestiniens occupés), Amnesty International met en lumière l’utilisation des technologies de reconnaissance faciale à des fins de surveillance et de contrôle en Palestine, ce qui soulève de graves préoccupations éthiques, car ces technologies fragmentent et séparent les communautés, renforçant ainsi un système de contrôle.

Pouvez-vous citer des exemples d’IA/d’algorithmes qui ont été utilisés pour résoudre des problèmes sociétaux complexes ou pour améliorer les processus de prise de décision ? Y a-t-il eu une surveillance des discours haineux utilisés depuis le début des attaques ?

En Palestine, l’utilisation de l’IA pour résoudre des problèmes sociétaux a été relativement limitée, son application principale étant observée dans des contextes commerciaux plutôt que dans le contexte des droits de l’homme. Notamment, 7amleh se distingue comme une organisation pionnière, ouvrant la voie à l’utilisation de l’IA pour s’attaquer à des problèmes urgents en Palestine.

Au centre 7amleh, nous avons lancé une initiative visant à lutter contre les discours de haine et de violence sur les plateformes de médias sociaux. Nous avons développé un modèle linguistique sophistiqué conçu pour analyser et catégoriser les cas de discours de haine et de violence en hébreu et en arabe, notre modèle hébreu a démontré un succès significatif, avec des mesures de précision élevées. Nous avons mis cet outil en action en mars 2023 lors des attaques de Huwara, où il a permis de repérer efficacement les cas de discours de haine et de violence. Poursuivant notre engagement à promouvoir la sécurité en ligne, nous utilisons actuellement cette solution d’IA pour détecter et surveiller les discours haineux et la violence depuis le 7 octobre, consultez notre tableau de bord en direct ici.

This innovative use of AI at 7amleh marks a pivotal step in harnessing technology to address societal challenges, particularly in the realm of human rights. While AI applications in Palestine are still evolving, initiatives like ours showcase the potential for technology to contribute positively to pressing issues within the region.

Cette utilisation innovante de l’IA à 7amleh marque une étape décisive dans l’exploitation de la technologie pour relever les défis sociétaux, en particulier dans le domaine des droits de l’homme. Alors que les applications de l’IA en Palestine sont encore en pleine évolution, des initiatives comme la nôtre montrent que la technologie peut contribuer de manière positive aux problèmes urgents de la région.

Quels sont les effets négatifs et positifs spécifiques de l’IA dans les médias sociaux pour les personnes handicapées ?

Je vais me pencher sur les aspects techniques. L’impact de l’IA dans les médias sociaux sur les personnes handicapées suscite à la fois des inquiétudes et des considérations. L’une des préoccupations majeures concerne les biais inhérents à l’IA, qui pourraient affecter la précision et l’efficacité des technologies d’assistance conçues pour aider les personnes handicapées.

À la lumière des événements survenus depuis le 7 octobre, les contenus en ligne liés à la situation, les images, les vidéos et les textes se sont multipliés. Toutefois, les internautes utilisent diverses techniques pour contourner la censure en ligne, en modifiant les styles d’écriture ou en manipulant les images pour échapper aux algorithmes automatisés. Si ces stratégies permettent de minimiser la censure et de sensibiliser le public à ce qui se passe, elles posent un problème aux technologies d’assistance qui lisent les textes à haute voix ou décrivent les images, ce qui risque de les rendre moins efficaces.

Un autre aspect à prendre en compte est la fonctionnalité des algorithmes conçus pour décrire les images pour les malvoyants. L’IA étant connue pour ses biais, des questions se posent quant à la précision de ces algorithmes pour décrire des images sans censure. Il est essentiel de veiller à ce que les personnes handicapées aient un accès égal aux données non censurées, ce qui soulève des inquiétudes quant à la fiabilité de ces outils d’IA pour fournir une représentation exacte du contenu en ligne.

Comment pouvons-nous tenir les grandes entreprises technologiques, telles que Facebook (Meta), Twitter (X) et TikTok, redevables de l’IA et de la conception algorithmique ?

Tenir les grandes entreprises technologiques responsables des biais algorithmiques/de l’IA implique des approches à multiples facettes. Tout d’abord, la transparence est cruciale ; les entreprises doivent divulguer le fonctionnement interne de leurs systèmes d’IA, y compris les ensembles de données utilisés pour l’entraînement des algorithmes. Des audits réalisés par des organismes indépendants pourraient garantir l’équité et l’exactitude de ces ensembles de données, en révélant les biais ou les inexactitudes susceptibles de perpétuer la discrimination. En outre, la mise en œuvre de lignes directrices ou de normes éthiques pour le développement et l’utilisation de l’IA peut créer un cadre permettant d’éviter les algorithmes biaisés. Des évaluations régulières, des examens et des améliorations continues des modèles d’IA sont essentiels pour identifier et rectifier les biais. Des cadres juridiques et des réglementations ciblant spécifiquement la responsabilité algorithmique pourraient également être nécessaires, afin de garantir que les entreprises soient légalement responsables des résultats discriminatoires de leurs systèmes d’IA. Enfin, le fait de favoriser la diversité des équipes impliquées dans le développement de l’IA peut atténuer les préjugés dans les ensembles de données et les algorithmes en intégrant un plus large éventail de perspectives et d’expériences.

Merci beaucoup d’avoir partagé vos expériences et vos contributions significatives. Comment Lingua Café et la communauté des droits numériques peuvent-ils soutenir 7amleh ?

Merci de nous donner l’occasion de discuter de nos projets et initiatives !

La manière la plus efficace de soutenir 7amleh est de faire connaître nos initiatives à travers tous les médias. Le partage de notre travail amplifie sa portée et favorise une meilleure compréhension des défis auxquels les Palestiniens s’attaquent.

Outre la sensibilisation, la collaboration est très appréciée car elle nous permet de mettre en commun diverses expertises, créant ainsi un impact plus important.

Nous sommes ouverts aux idées, aux suggestions et aux réflexions sur la manière d’améliorer et d’étendre notre travail. Si vous avez des concepts novateurs ou si vous pensez qu’il existe des moyens de renforcer nos efforts, n’hésitez pas à nous contacter.

Et pour ceux qui ont des compétences techniques, nous serions ravis de collaborer à la mise en œuvre d’améliorations et d’innovations qui contribueront à l’efficacité de nos initiatives.

Le soutien financier est également crucial, car nous sommes une organisation à but non lucratif et dépendons de financements externes. Les dons effectués directement sur notre site web fournissent les ressources nécessaires pour soutenir et développer nos efforts en matière de droits numériques.