- 6-7 février, toute la journée, retransmission en ligne
Conférence inaugurale de l'Association internationale pour une intelligence artificielle sûre et éthique (IASEAI)
Hébergée au siège de l'OCDE, cette conférence présentera les derniers développements en matière de sécurité et d'éthique de l'IA. Parmi les intervenants figurent le Secrétaire général de l'OCDE, Mathias Cormann, et les lauréats du prix Nobel, Maria Ressa, Joseph Stiglitz et Geoffrey Hinton.
- 6 février, 17h30-21h, sur invitation uniquement
Développer un écosystème gage de sûreté et de responsabilité en matière d'IA afin de faire progresser le développement et le déploiement de modèles ouverts
L’IA induit des changements profonds. Pour s’assurer que son développement sert le bien commun, il faut développer un écosystème multipartite garant d'une IA sûre et responsable. Le Sommet pour l'action sur l'intelligence articificielle offre un moment charnière pour catalyser la collaboration internationale et multidisciplinaire indispensable à la construction de cet écosystème.
- 7 février, 9h30-12h, sur place (Institut Polytechnique de Paris)
Panel sur les seuils de risque pour les frontières de l’IA
L’OCDE et l’Institut de sécurité de l'IA du Royaume-Uni (AISI) organisent conjointement une session intitulée « Seuils pour l’IA frontière » dans le cadre des conférences sur l’IA, la science et la société, un événement satellite du Sommet. Cette séance explorera comment les seuils peuvent (ou non) éclairer les évaluations des risques et la gouvernance des systèmes d'IA avancés, ainsi que la manière dont ils sont actuellement définis dans la pratique.
- 7 février, 10-13h, sur site et retransmis en ligne (France Éducation international, Sèvres)
L'IA dans l'éducation : Quel cadre pour quels usages ?
Andreas Schleicher, Directeur de l'éducation à l'OCDE, participera à une table ronde sur les cadres et usages de l'IA dans l'éducation, organisée par le ministère français de l'Éducation nationale, de l'Enseignement supérieur et de la Recherche.
- 7 février, 11h30-13h, retransmission en ligne (siège de l'OCDE, La Muette)
Lancement d'un cadre mondial pour l’application du code de conduite du G7 sur le développement de systèmes d’IA avancés (processus d'Hiroshima)
L’OCDE lancera le premier cadre mondial permettant aux entreprises de rendre compte de leurs actions et politiques visant à promouvoir une IA sûre, sécurisée et digne de confiance. Cette initiative vise à suivre la mise en œuvre du Code de conduite international du processus d'Hiroshima pour les organisations développant des systèmes d'IA avancés. Elle représentera un progrès significatif dans la promotion de la gouvernance internationale de l'IA, renforçant l'engagement continu du G7 à promouvoir un développement, un déploiement et une utilisation des systèmes d’IA avancés qui soient sûrs, sécurisés et dignes de confiance.
- 7 février, 12h-13h, sur site (Institut Polytechnique de Paris)
Utiliser la gestion algorithmique sur le lieu de travail : Nouvelles données issues d'une enquête de l'OCDE auprès des employeurs
L'OCDE présentera un nouveau rapport sur l'utilisation d'outils de gestion algorithmiques (comme les logiciels destinés à instruire, surveiller ou évaluer les travailleurs), explorant leur prévalence, leurs impacts et les mesures actuellement utilisées par les entreprises pour garantir la fiabilité de leur utilisation. Le rapport s’appuie sur une enquête inédite menée auprès de plus de 6 000 entreprises dans six pays de l’OCDE et révèle que les outils de gestion algorithmique sont déjà largement répandus.
- 9 février, 13h30-22h30, sur invitation uniquement
Lancement du projet « Global Risk and AI Safety Preparedness (GRASP) » - AI Safety Connect 2025
Cette cartographie des technologies et outils de sécurité de l'IA, dirigée par la Mohammed Bin Rashid School of Government, sera publiée sur OECD.ai dans le cadre du projet SAFE du Partenariat mondial sur l'IA (GPAI). L'événement se concentrera sur l'interaction entre les travaux techniques liés à la sécurité de l'IA et la gouvernance internationale de l'IA. Il inclura aussi des panels sur la coopération internationale en matière de sûreté de l’IA, sur la coordination de l’AISI (AI Safety Institute), et sur la sûreté de l’IA au sein des laboratoires pionniers.
- 10-11 février, toute la journée, sur invitation uniquement (Grand Palais, Paris)
Sommet pour l'action sur l'intelligence artificielle (IA)
Le Sommet pour l'action sur l'IA se tiendra en France les 10 et 11 février 2025, et réunira des chefs d'État et de gouvernement, des dirigeants d'Organisations internationales dont le Secrétaire général de l'OCDE Mathias Cormann, des chefs d'entreprises, ainsi que des acteurs du monde universitaire, de la société civile et des arts.
- 10 février, 17h-19h, sur place (Centre Culturel du Japon, Paris)
Global Trust Challenge (inscriptions)
Dans le cadre du défi « Convergence IA » présenté au Sommet, le « Global Trust Challenge » est une initiative innovante et collaborative visant à développer des approches politiques communes et des solutions techniques pour promouvoir la confiance et lutter contre la propagation des erreurs et de la désinformation générées par l’IA.
- 11 février, 13h-18h, sur invitation uniquement (siège de l'OCDE, La Muette)
Façonner l'avenir de la gouvernance de l'IA : normes, gestion des risques et pratiques responsables
Organisé à l'OCDE, cet événement se penchera sur les défis les plus urgents en matière de gouvernance de l'IA, en explorant des sujets critiques tels que les cadres de gestion des risques pour l'IA avancée, la normalisation et les pratiques commerciales responsables. Le projet B-Tech des Nations Unies sur les droits de l'homme, l'OCDE, AI Standards Hub et Safer AI s'unissent pour faire progresser la gouvernance des systèmes d'IA avancés.
- 11 février, 9h30-12h45, sur invitation uniquement (siège de l'OCDE, La Muette)
Gouvernance internationale des données et confidentialité à l'ère de l'intelligence artificielle
L’OCDE, la Commission coréenne de protection des informations personnelles (PIPC) et la Commission nationale de l'informatique et des libertés (CNIL) française organisent deux tables rondes de haut niveau sur la gouvernance internationale des données et de la confidentialité en matière d’IA. Le lancement du rapport Enhancing Access to and Sharing of Data in the Age of AI aura lieu au cours de la première table ronde. Les responsables des autorités de protection des données se pencheront sur l’application des principes de confidentialité et de protection des données à l’IA lors de la seconde table ronde, afin de promouvoir une innovation responsable et fiable en matière d’IA.
- 11 février, 12h30-19h30, sur site (Avenue de Ségur, Paris 75007)
Protéger l'intégrité des informations à l'ère de l'IA
Organisé par VIGINUM et l'OCDE avec le soutien du ministère de la Culture, cet événement réunira des acteurs institutionnels internationaux et français, des chercheurs, des médias, des ONG et des représentants du secteur privé, pour explorer les défis et opportunités de l'intelligence artificielle dans la lutte contre la manipulation de l'information et la protection de l'intégrité de l'information.
- 11 février, 12h30-18h30, (INRIA, Paris)
Atelier « Initiatives scientifiques et technologiques pour la coopération en matière d'IA... Le temps de l’action »
Plus d'informations à venir.
- 12 février, 13h-18h, (siège de l'OCDE, La Muette)
Les coûts cachés de l'IA : comprendre son empreinte énergétique et hydrique
Cet événement, organisé par l’IEEE et l’OCDE en marge du Sommet, explorera l’augmentation de l’impact environnemental de l’IA. Si la consommation énergétique de l’IA est un problème connu, son impact sur les ressources vitales, comme l’eau, est souvent négligé. Cet événement se penchera sur les coûts environnementaux de l’IA, en particulier l’utilisation de l’énergie et de la consommation d’eau.