Une vingtaine de membres de la communauté scientifique, académique et civile se sont réunis ce jeudi au Centre de Calcul Calculé de Barcelone – Centre National de Calcul Calculé (BSC-CNS) pour éclairer un manifeste qui appelle à adapter les modèles de intelligence artificielle (IA) pour leur fournir une concentration féministe et pacifiste.
Le manifeste, une initiative de l’Observatori d’Ètica en Intel·ligència Artificial de Catalunya (OEIAC), de la Communauté de Recherche sur l’Excellence pour tous (CREA) et du BSC, établit différentes demandes qui, en substance, demandent de garantir que le déploiement du IA ne repose pas sur l’ambition commerciale des grandes entreprises, mais sur la nécessité de servir la société et de protéger ses droits. « Nous voulons qu’ils comprennent que nous nous mobilisons pour faire changer les choses », explique-t-il. Albert Sabaterdirecteur de l’OEIAC.
D’une part, le document appelle à non-violence et référence à la nécessité de ne pas déployer l’IA à des fins militaires, comme c’est le cas Israël dans Boucle avec l’aide de géants de la technologie tels que Microsoft, Google et amazone.
Non-discrimination
D’autre part, le manifeste demande également de garantir la transparence du modèles de langage qui façonnent des applications comme ChatGPT détecter d’éventuels préjugés et, ce faisant, empêcher la possibilité d’amplifier le discrimination des groupes vulnérables, traditionnellement sous-représentés dans le secteur technologique. En ce sens, il estime qu’il est nécessaire que les équipes qui développent les algorithmes aient un prisme éthique incluant toutes les couches sociales, ainsi que les perspectives féministes et antiracistes.
De même, le texte soutient une régulation pour garantir une gouvernance démocratique de l’IA, empêcher le contrôle de cette technologie repose sur une poignée d’entreprises ayant des attitudes monopolistiques et offre aux citoyens une plus grande capacité de prise de décision et de contestation pour empêcher que leurs données ne soient exploitées commercialement par le Grande technologie sans leur consentement, un problème qui a explosé avec l’émergence de IA générative.
Le manifeste, explique le professeur de sociologie et chercheur au CREA Lidia Puigvertrépond à la nécessité de créer « un espace de dialogue qui intègre la voix de tous les citoyens » pour faire la lumière sur un technologie « ce qui affecte déjà leur vie. » Pour Ulises Cortésprofesseur d’IA et directeur du groupe IA haute performance du BSC, exprime les préoccupations sociales des citoyens qui ne sont « pas protégés (…) parce que les politiques n’en font pas assez ».
Des experts en ingénierie, informatique, sociologie, philosophie, féminisme, politique, éthique, droit et même religion ont participé à une réunion-débat interdisciplinaire dont est né ce manifeste, qui vise à faire pression sur les institutions publiques et l’industrie technologique pour qu’ils agissent en cette direction et garantir la protection des droits de l’homme. Sabater est clair : « Nous devons agir ».