L’Intelligence artificielle : atout ou menace pour les organisations internationales ?
L’Intelligence artificielle : atout ou menace pour les organisations internationales ?
Conférence au Club suisse de la presse avec :
- Bilel Jamoussi, directeur adjoint du Bureau de la normalisation des télécommunications (TSB) de l’UIT, organisateur de la plateforme AI for Good de l’UIT et du Sommet mondial annuel AI for Good
- Philippe Marc Stoll, Délégué principal à la diplomatie technologique, Comité international de la Croix-Rouge (CICR)
- M. Adrien Ogee, Chef des Opérations, CyberPeace Institute
- Modération : Isabelle Falconnier, Directrice du Club suisse de la presse, et Luisa Ballin, Journaliste accréditée à l’ONU
L’Intelligence artificielle (IA) est omniprésente dans nos sociétés. Recours à l’IA pour la prise de décision dans les conflits armés, menace de groupes criminels et organisations terroristes utilisant des technologies perturbatrices, cyber-attaques, cybercriminalité contre les communautés vulnérables, fake news sur les réseaux sociaux. L’IA, un atout ou une menace ? Des experts en débattront au Club suisse de la Presse.
Bilel Jamoussi
« Les Nations Unies ont adopté deux résolutions sur l’IA en quelques semaines cette année. Et nous avons compté plus de 6’000 participants au Sommet AI for Good 2024, une participation plus haute que jamais ! C’est la preuve que le sujet est pris au sérieux. »
« Notre recommandation est toujours de réfléchir à une stratégie nationale en termes d’IA. Mais la plupart du temps, il n’y a pas de stratégies nationales en matière d’IA. 80% des pays membres de l’UIT n’en ont pas et ont demandé le soutien de l’UIT pour en mettre en place. »
« La réduction de l’écart numérique est une source de préoccupation importante. Nous encourageons la participation des femmes à l’élaboration des contenus numériques partout dans le monde. Les pays en développement suivent régulièrement nos activités et journées de dialogue. »
Philippe Marc Stoll :
« C’est la première fois qu’une technologie touche d’un coup tous nos domaines d’activités. Par exemple, nous travaillions sur les armes autonomes depuis des années. Mais la réflexion était limitée à un petit vase clos de juristes. Désormais, au vu de l’avancée permise par l’IA, le débat déborde largement. Et ce sujet des armes autonomes est devenu majeur. »
« L’utilisation des deep fake augmente l’impact des discours de haine et de la désinformation. La manipulation de l’image du CICR s’accélère. Nous travaillons à chercher des solutions, par exemple à travers le watermarking, mais nous courrons derrière les progrès rapides de l’IA. Nous avons besoin de normes. Il faut renverser le fardeau de la preuve. Que ce ne soit pas à l’usager de prouver qu’il a affaire à une fake news. »
« Les environnements dans lesquels le CICR travaille sont fragiles et polarisés. Ce sont des zones de crises, de conflits. La technologie tient dans ces environnements toujours un peu de l’ordre du mirage. Il manque de la connectivité, de l’électricité. Dans un premier temps, nous voyons donc les limites de l’IA. Mais ensuite, nous avons appris à en tirer parti. Par exemple, nous travaillons sur des projets de télémédecine très prometteurs. »