Depuis avril 2021, l'Union européenne s'efforce de parvenir à un accord sur la régulation de l'intelligence artificielle, consciente des exploits technologiques qui se multiplient. Toutefois, au-delà de la fascination pour des réalisations telles qu'AlphaGo de DeepMind ou le système Autopilot de Tesla, un danger majeur émerge, soulignant l'urgence de réguler l'IA : le bioterrorisme assisté par l'intelligence artificielle.

Le bioterrorisme, facilité par l'IA, représente une menace cruciale qui transcende les préoccupations économiques ou militaires habituelles. L'idée que des individus mal intentionnés, dépourvus de connaissances scientifiques approfondies, pourraient exploiter l'IA pour créer des virus capables de déclencher des pandémies est devenue une réalité alarmante.

L'utilisation délibérée de micro-organismes tels que des virus ou des bactéries pour provoquer des maladies ou la mort n’est pas récente : Le Japon a armé le typhus et le choléra pendant la Seconde Guerre mondiale. À ce jour, la mise au point, le confinement et le déploiement de telles armes ont nécessité des ressources et une expertise considérables. Cela ne signifie pas que ces armes n'ont été accessibles qu'aux gouvernements, mais cela a permis de s'assurer que seul un nombre limité d'acteurs avait la capacité de les mettre au point.

Les experts en IA craignent que des modèles d'IA très performants n'aident des non-experts à concevoir, synthétiser et utiliser ces armes, élargissant ainsi le groupe d'acteurs susceptibles d'avoir accès à ces capacités dangereuses. Les inquiétudes portent de plus en plus sur les capacités futures, plutôt que sur celles d'aujourd'hui. Selon l'ancien PDG de Google, Eric Schmidt, "le plus gros problème de l'IA sera en fait ... son utilisation dans les conflits biologiques", et il n'est pas le seul expert en IA à s’inquiéter. L'expert en biosecurité Kevin Esvelt du Massachusetts Institute of Technology (MIT) a demandé à ses étudiants de créer un virus dangereux en utilisant l'IA de ChatGPT. En une heure seulement, ils ont compilé une liste de virus potentiels, identifié des entreprises pour synthétiser le code génétique, et repéré des sociétés de recherche capables de concrétiser le projet. Cette démonstration met en lumière la facilité croissante avec laquelle n'importe qui peut potentiellement concevoir des armes biologiques aux conséquences aussi dévastatrices que des armes nucléaires.

En outre, l'enjeu du code génétique de synthèse amplifie le risque de bioterrorisme assisté par l'IA. Actuellement, la construction d'un virus à partir de zéro est devenue étonnamment accessible. Les segments d'ADN nécessaires à la création d'un virus peuvent être commandés en ligne à partir de nombreux fournisseurs de synthèse génétique. Cette démarche, qui aurait pris des milliers d'heures aux chercheurs il y a quelques décennies, est aujourd'hui simplifiée au point de pouvoir être effectuée avec une relative facilité. Les mêmes progrès qui facilitent les découvertes scientifiques peuvent être détournés par des acteurs malveillants pour obtenir des agents pathogènes capables de déclencher des pandémies.

Face à cette réalité, l’obligation de réguler la synthèse génétique devient impérative. Alors que les chercheurs exploitent les avantages de cette technologie pour le bien de la société, des mesures légales de filtrage doivent être mises en place pour détecter toute séquence génétique potentiellement dangereuse. Cette nécessité revêt une importance critique, surtout à la lumière des avancées rapides de l'IA, exigeant une réponse proactive de la part des responsables politiques de l'Union européenne.

Actuellement, l'AI Act, première loi de l'Union européenne proposant de réglementer l'intelligence artificielle en fonction de ses risques, se trouve dans la dernière phase du processus législatif. Cependant, les récents débats au sein des responsables politiques de l’UE ont mis en évidence des difficultés à parvenir à un consensus, en particulier en ce qui concerne la réglementation des puissants modèles de fondation. Cette divergence de points de vue risque de compromettre l'ensemble de la réglementation, mettant en péril la capacité de l'UE à répondre efficacement aux défis posés par les avancées technologiques.

Pourtant, l'urgence de la situation ne peut être sous-estimée. La vitesse à laquelle les technologies de l'IA évoluent dépasse souvent la capacité de surveillance réglementaire des gouvernements, créant ainsi une lacune potentielle dans les politiques et réglementations existantes. Il est impératif que l'Union européenne surmonte les divergences internes et parvienne à un consensus pour mettre en place une réglementation efficace afin de protéger la société des dangers potentiels liés à l'IA.

Sources :

How AI could spark the next pandemic, Vox, 21 juin 2023, https://www.vox.com/future-perfect/2023/6/21/23768810/artificial-intelligence-pandemic-biotechnology-synthetic-biology-biorisk-dna-synthesis

Commission welcomes political agreement on Artificial Intelligence Act, European Comission, 8 décembre 2023, https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473

Une approche européenne de l’intelligence artificielle, Comission européenne, 14 décembre 2023, https://digital-strategy.ec.europa.eu/fr/policies/european-approach-artificial-intelligence

AlphaGo Beats The World’s Best Go Player, Medium, 16 novembre 2020, https://levelup.gitconnected.com/alphago-beats-the-worlds-best-go-player-1d4ab1428bac

Bill Gates says the next big threat facing humanity is bioterrorism. Interpol agrees, Euronews, 14 février 2023, https://www.euronews.com/next/2023/02/14/bill-gates-says-the-next-big-threat-facing-humanity-is-bioterrorism-interpol-agrees

Brussels should know AI-assisted bioterrorism is a risk worth considering, Euronews, 14 décembre 2023, https://www.euronews.com/next/2023/12/14/brussels-should-know-ai-assisted-bioterrorism-is-a-risk-worth-considering

US senators express bipartisan alarm about AI, focusing on biological attack, Reuters, 26 juillet 2023 https://www.reuters.com/technology/us-senators-express-bipartisan-alarm-about-ai-focusing-biological-attack-2023-07-25/