L’IA et informatique quantique ou l’incertitude de complexité

Alors que le sujet de l’intelligence artificielle générative s’est banalisé, il y a lieu de s’interroger sur les enjeux liés à son interaction avec l’informatique quantique, et les conséquences juridiques qui pourraient en découler.

Une révolution d’ores-et-déjà en marche

Au préalable, rappelons brièvement ce que recouvrent ces deux technologies.

L’informatique quantique utilise deux concepts fondamentaux de la mécanique quantique à savoir, la superposition d’états et l’intrication quantique. Transposés dans le traitement des données, cela donne naissance à l’informatique quantique. Cette superposition d’états permet d’effectuer des calculs parallèles pour une vitesse de traitement inégalée.

L’intrication quantique fournit alors des moyens puissants permettant de lier des Qubits entre eux développant ainsi les possibilités de traitement de l’information, en parallèle et interconnectée.

Dès lors cette technologie, très prometteuse dans de nombreux domaines, posera de nouveaux défis auquel les systèmes juridiques devront faire face.

Cela est notamment le cas en matière de cryptographie, de protection de la vie privée ou encore en matière de responsabilité et d’éthique, pour ne prendre que trois illustrations saillantes.

En cryptographie, l’informatique quantique pourrait compromettre les systèmes de chiffrement actuels basés sur la difficulté à résoudre certains problèmes mathématiques. Elle aurait ainsi la capacité à rendre obsolète tous ou la plupart des moyens de chiffrement actuellement déployés.

La Protection de la vie privée est ainsi directement impactée. Dès lors que des algorithmes assez puissants pour accélérer le processus de déchiffrement de données protégés par des méthodes de cryptographie classique verraient le jour, la confidentialité des données personnelles perdraient toute protection.

Enfin, en matière de Responsablité et d’Éthique, c’est la combinaison de l’informatique quantique avec l’Intelligence Artificielle (IA) qui est de nature à bouleverser ou à rendre inefficiente toute analyse de risques fondée uniquement sur l’IA.

Un cadre juridique en sursis

De même, le formidable accélérateur de créations, lié à l’usage de cette technologie pourrait conduire, au même titre que l’IA générative, à une obsolescence accélérée du cadre juridique actuel en matière de propriété intellectuelle.

Le législateur européen propose un système de co-régulation, basé sur des textes légaux, des normes et des codes de conduite, pour tenter de régir l’usage et le mésusage des nouvelles technologies, dont l’IA. C’est notamment au travers d’un instrument juridique, qui devrait être validé courant 2024, communément appelé « IA Act », que l’Union européenne veut déterminer, de manière innovante, un cadre juridique propre au développement des solutions algorithmiques.

Les divers organismes normatifs concernés viennent donc de proposer de nouvelles normes créant un dispositif de gestion des risques de l’intelligence artificielle.

Il faudra que l’ensemble de ce corpus de règles anticipe rapidement l’usage de l’informatique quantique dans un contexte où l’intelligence artificielle, en particulier les Large Language Models (LLM), se déploie à une vitesse accélérée.

Même si l’usage combiné de l’IA et de l’informatique quantique est porteur d’immenses espoirs et progrès pour nos sociétés – aussi bien en matière d’avancées scientifiques que de résolution de difficulté et d’amélioration de processus productifs, etc… -, il est aussi vecteur de risques significativement accrus que le législateur européen se doit d’anticiper. Ces interrogations, nées de la complexité de la situation sont prises en considération, notamment à l’occasion de l’élaboration de l’IA Act en gestation et son approche par les risques.

L’accélération des capacités de calcul de l’informatique quantique pourrait conduire en effet à un développement rapide et imprévisible de l’IA avec des implications potentielles sur la sécurité et la perte, désormais envisageable, de maîtrise d’une IA devenue ainsi autonome.

Les modèles d’IA résultant de cette convergence pourraient être plus difficiles à comprendre, à expliquer et à contrôler, en particulier en conjonction avec leur vitesse de développement en constante accélération. Ils susciteraient, dans des proportions à ce jour inconnues, des préoccupations éthiques liées aux biais algorithmiques, à la responsabilité et à la transparence.

En termes de confidentialité et de vie privée, l’IA quantique pourrait traiter et analyser un ensemble de données à une échelle sans précédent, soulevant ainsi des questions encore plus prégnantes sur la confidentialité et la protection des données personnelles. Les analyses d’impact préalables à leurs mises en œuvre deviendraient quasiment obligatoires.

L’IA quantique pourrait également être utilisée pour générer du contenu falsifié de façon plus sophistiqué et à plus grande échelle, ce qui soulèverait de nouvelles préoccupations en matière de diffusion de fausses informations et de manipulation de la réalité conduisant à des pratiques interdites par le futur IA Act.

Enfin d’un point de vue sociétal, si l’accès à cette technologie avancée est limité à certaines organisations ou nations, cela pourrait intensifier les inégalités d’accès aux progrès technologiques et aux avantages qui en découlent.

Au même titre que la mise en œuvre d’une intelligence artificielle au sein d’une entreprise nécessite la collaboration entre plusieurs métiers en son sein pour élaborer des règles de gouvernance, des bonnes pratiques et un cadre permettant une exploitation responsable et éthique, l’informatique quantique nécessite, dès maintenant, une coopération entre les communautés scientifiques, industrielles, gouvernementales, juridiques et éthiques pour garantir un développement responsable et équitable de cette combinaison technologique capable du meilleur comme du pire.

Hervé Gabadou

Avocat Associé, Hervé dirige l’activité Digital & Innovation de Deloitte, Société d’Avocats. Il accompagne différents acteurs du secteur privé dans leurs programmes de transformation numérique faisant appel à des technologies […]

Tony Baudot

Tony est avocat Directeur du département juridique en charge du droit de l’informatique et de la protection des données. Il a rejoint Deloitte Société d’Avocats en 2016 en qualité d’avocat.  Tony intervient régulièrement sur l’ensemble des problématiques juridiques de l’informatique, notamment dans […]