Les usagers du service public face à l'intelligence artificielle
La mise en œuvre de l'intelligence artificielle (IA) dans les services publics pourrait transformer en profondeur la relation entre les usagers et l'administration. Pour l’UNSA Fonction Publique, cette transformation doit être anticipée et donner lieu à un dialogue social nourri comme le préconise l’avis du Conseil Economique et Social du 14 janvier 2025
La mise en œuvre de l’IA pourrait potentiellement permettre l’amélioration de l’efficacité, l’automatisation des tâches répétitives, la réduction des délais de traitement des demandes, une disponibilité 24/24 des assistants virtuels. Cependant, pour l’UNSA Fonction Publique l’utilisation des nouvelles technologies comporte également des risques à anticiper dans le cadre du dialogue social :
Des risques d’inégalités d’accès des usagers au service public :
La numérisation des services publics pourrait exclure les usagers qui ne sont pas à l'aise avec les technologies numériques ou qui n'ont pas accès à internet.
- Selon l’INSEE en 2024, l’illectronisme (difficulté, voire l'incapacité, à utiliser les appareils numériques et les outils informatiques en raison d'un manque ou d'une absence totale de connaissances à propos de leur fonctionnement) touche 15 % de la population adulte âgée de 15 ans ou plus en France et 36% des retraités.
- 40 % des personnes non-diplômées, 22 % des personnes pauvres, 24 % des ménages bénéficiaires des minima sociaux n’ont pas d’accès à l’internet fixe à domicile indique la défenseure des droits dans son rapport sur la dématérialisation des services publics publié en 2022.
Des risques de biais et de discriminations dans l’utilisation des données :
Les algorithmes d'IA pourraient reproduire et amplifier les biais existants dans les données, conduisant à des décisions discriminatoires à l'égard de certains groupes d'usagers, comme les personnes en situation de handicap, les groupes ethniques etc...
Des risques liés à la protection de la vie privée :
L'utilisation de l'IA implique la collecte et le traitement de données personnelles, ce qui soulève des questions de confidentialité et de sécurité afin de respecter les obligations réglementaires comme celles du Règlement Général sur la Protection des Données (RGPD) ou les préconisations de la Commission Nationale de l’Informatique et des Libertés (CNIL).
Des risques liés à la transparence des systèmes :
La transparence et l'équité des algorithmes doit être garantie, ainsi que la possibilité de recours en cas de décision injuste. Une intervention humaine est d’ailleurs requise dans ce cas comme prévu dans le Code des Relations entre le Public et l’Administration, (CRPA) dans ces articles L410-1 et suivants.
- Les décisions prises par les algorithmes doivent relever d’une responsabilité établie et claire. La notion de « contrôle humain » a été introduite par l’article 14 du règlement de l’Union Européenne sur l’IA (Artificial Intelligence Act) Celui-ci précise que les systèmes d’intelligence artificielle doivent pouvoir être contrôlés par des personnes physiques, afin de réduire au minimum les risques pour la santé, la sécurité ou les droits fondamentaux.
Pour l’UNSA Fonction Publique, garantir l'inclusion numérique n’est pas une option. Des alternatives doivent être maintenues pour les usagers qui en ont besoin. La protection des données des usagers et le respect de leur vie privée doit être garanti. Les décisions prises par l’usage des algorithmes doivent être transparentes et leur responsabilité endossée par des décideurs. Pour que l’IA devienne un potentiel dédié à l’amélioration des services publics, elle doit faire l’objet d’un dialogue social et sa mise en œuvre doit être encadrée.
Sources :
- Pour une intelligence artificielle au service de l’intérêt général, Avis du CESE du 14 janvier 2025
- Le travail et l'emploi à l'épreuve de l'IA : Etat des lieux et analyse critique de la littérature, rapport de recherche de l’IRES de mars 2024
- Dématérialisation des services publics, rapport de la défenseure des droits de 2022