L’intelligence artificielle s’infiltre partout: vous vous en servez pour cuisiner ou traduire des textes, votre banque vous protège des fraudes avec, votre assurance vous répond avec un chatbot… Quel sera l’impact de ces simplifications sur le genre humain: serons-nous plus heureux, car assistés en permanence? ou seulement plus idiots, à force de ne plus faire d’efforts de mémorisation et d’analyse? Pourrons-nous encore faire confiance à ce que nous voyons ou entendons à distance?
Paradoxalement, les contacts humains réels pourraient se voir renforcés, si des systèmes fiables de certification de l’authenticité ou d’identification de la création par intelligence artificielle ne sont pas mis en place. On doit craindre aussi que l’écart entre ceux qui maîtrisent et comprennent les nouveaux outils informatiques et les autres ne se creuse encore davantage, limitant les perspectives d’un nombre croissant de notre population. Il faut aller expliquer les possibilités de l’intelligence artificielle aux plus vulnérables.
Face à ces bouleversements, la réaction naturelle de certains est de vouloir édicter de nouvelles règles pour nous protéger. Pourtant, l’intelligence artificielle n’est qu’un outil, impressionnant certes, mais dont l’utilisation reste de la responsabilité de l’humain ou de l’entreprise qui l’emploie. Les règles actuelles sont a priori suffisantes pour apprécier les conséquences d’un mauvais usage de l’intelligence artificielle, qui aura toujours été décidé ou manqué d’être contrôlé par un humain.
Le Conseil fédéral vise trois objectifs: renforcer notre pays comme pôle d'innovation, protéger les droits fondamentaux, y compris la liberté économique, et améliorer la confiance de la population en l'IA.
Bien sûr, l’Union européenne ne le voit pas de cet œil et a adopté en août 2024 un règlement sur l’intelligence artificielle. Celui-ci classe les applications de l'IA en quatre niveaux de risque:
- les systèmes qui créent un risque inacceptable (identification biométrique, notation citoyenne) sont interdits depuis le 2 février 2025;
- les systèmes qui présentent un haut risque pour la santé, la sécurité ou les droits fondamentaux (chirurgie assistée par un robot, évaluation personnelle ou juridique), seront soumis à des exigences légales spécifiques d’ici au 2 août 2026 voire 2027;
- les systèmes qui présentent un risque limité (chatbots, IA génératives) feront l’objet de règles relatives à la transparence et au droit d'auteur à partir du 2 août 2025, afin de garantir une IA sûre et digne de confiance;
- les systèmes présentant un risque minimal ou nul (jeux vidéo, filtres anti-spam) ne font l’objet d’aucune norme.
Ce règlement va surtout générer beaucoup de documentation et de surveillance; il risque aussi d’être obsolète assez vite, en n’étant pas assez générique. Les entreprises de pays tiers comme la Suisse devront aussi le respecter, car comme le règlement général sur la protection des données, il s’appliquera dès que le résultat d’une intelligence artificielle sera utilisé dans l’Union européenne, avec de lourdes pénalités en cas de violation.
Malgré cela, Meta (Facebook, Instagram, Messenger, WhatsApp) a commencé à déployer son IA dans les pays européens. Elle n’y génère que du texte, pas d’images, car elle n’a pas été entraînée sur des données d’utilisateurs européens. La tour Eiffel pourrait bien ne pas se trouver au Champ-de-Mars… Meta a par ailleurs promis de ne pas espionner notre vie privée.
Dans une autre approche, le Conseil de l'Europe (qui n’a rien à voir avec l’UE, faut-il le rappeler) a adopté le 17 mai 2024 la première Convention mondiale sur l'intelligence artificielle, les droits de l'homme, la démocratie et l’état de droit. Elle laisse aux Etats une grande flexibilité quant à la manière dont ils souhaitent atteindre les objectifs d’innovation responsable de cette convention. La Suisse l’a signée le 27 mars 2025.
En effet, le Conseil fédéral vise trois objectifs: renforcer notre pays comme pôle d'innovation, protéger les droits fondamentaux, y compris la liberté économique, et améliorer la confiance de la population en l'IA. Il a chargé l’administration d’élaborer d’ici fin 2026 un projet de mise en œuvre de la Convention précitée en définissant les principes nécessaires en matière de transparence, de protection des données, de non-discrimination et de surveillance. D’autres adaptations doivent être aussi sectorielles que possible (santé, transports).
Saviez-vous que le Conseil fédéral dispose aussi depuis quelques mois de sa propre intelligence artificielle? Gov-GPT, c’est son nom, fonctionne sur un réseau fermé et sécurisé, sur la base du code open-source LLaMA de Meta. Elle va sûrement rendre le Conseil fédéral, et quelques hauts fonctionnaires, plus efficace.
PS: Oui, il y a un poisson d’avril dans cette chronique, mais pas forcément là où vous croyez! 😉