Arbitration Tech Toolbox : regarder au-delà de la boîte noire de l’IA dans les différends sur l’utilisation de l’IA

utilisation ia

Un modèle d’intelligence artificielle (« IA ») en boîte noire est un modèle « créé directement à partir de données par un algorithme, ce qui signifie que les humains, même ceux qui les conçoivent, ne peuvent pas comprendre comment les variables sont combinées pour faire des prédictions » (voir une discussion plus détaillée ici). Le fait que nous ne comprenions pas la manière dont une IA parvient à ses conclusions crée un malaise quant à la mise en œuvre et à l’utilisation de l’IA. Nous résumons d’abord les points de vue partagés lors de deux séminaires récents par Young ICCA et Maxwell Chambers. Nous nous tournons ensuite pour partager nos réflexions sur la même chose.

Jeune APAC

Le 29 mars 2023, dans le cadre du programme de mentorat Young ICCA moi et sponsorisé par ArbTechle webinaire Vais-je perdre mon emploi au profit d’un robot ? a eu lieu. L’événement a suscité une discussion animée concernant le battage médiatique autour de nouveaux outils de pointe basés sur l’IA et leurs applications dans l’arbitrage international.

Sofia Klot (Senior Associate, Freshfields Bruckhaus Deringer) a discuté des outils d’IA prédictifs et génératifs qui sont de plus en plus utilisés dans les arbitrages et les litiges (par exempleArbiLex; Texte de cas – CoCounsel; Harvey et des outils de productivité tels que Co-Pilot de Microsoft). Elle a également soulevé deux questions clés : (1) les cas d’utilisation de l’IA dans l’arbitrage et (2) les risques éthiques et juridiques.

  1. Les grands modèles de langage («LLM») consistent en des réseaux de neurones entraînés sur de grandes quantités de texte qui sont très efficaces pour anticiper, générer et prédire le langage. Ils peuvent être utilisés pour créer des sorties sur mesure pour une gamme d’applications, y compris pour l’arbitrage. Klot a souligné plusieurs façons dont les avocats peuvent utiliser les LLM, ainsi que de nouveaux cheminements de carrière (par exempledans l’annotation et l’étiquetage des données), et expliqué comment les arbitres et les institutions d’arbitrage peuvent également tirer parti des LLM (par exemple, pour résumer les positions des parties, automatiser les transcriptions des audiences et préparer l’historique de la procédure d’une affaire pour publication dans une sentence) ; autre
  2. Risques éthiques et juridiques posés par l’IA (par exemple, préserver la confidentialité des données des clients et empêcher l’utilisation de fausses preuves). (Ces questions sont explorées plus en détail sur le blog ici.)

La deuxième discussion a été menée par Emily Hay (Counsel, Hanotiau & van den Berg) et Federico Ast (Fondateur et PDG, Kleros). Après un aperçu approfondi de la blockchain et de Kleros, la discussion s’est tournée vers la manière dont les tribunaux nationaux réagiront aux décisions basées sur la blockchain dans les litiges liés à l’IA.

Considérant la Convention de New York, Hay a souligné les défis dans : (i) l’identification d’un siège d’arbitrage ; (ii) l’absence de motivation dans les sentences auto-exécutoires ; (iii) se conformer à l’exigence d’écriture de la convention d’arbitrage ; (iv) avoir une sentence originale et dûment authentifiée ; et (v) le non-respect de la procédure régulière (discuté plus en détail sur le blog ici). Ast, à son tour, a présenté une affaire Kleros qui a surmonté ces obstacles : en 2021, un tribunal mexicain a appliqué une sentence basée sur la blockchain en l’incorporant par référence dans une sentence arbitrale traditionnelle (discutée sur le Blog ici).

Enfin, Mauricio Sanchez Lemus (Contract International Advisor, White & Case LLP) a abordé le programme d’IA d’un point de vue réglementaire. Il a analysé la réaction des États aux technologies basées sur l’IA et les problèmes qu’elles entraînent. Pour Sánchez Lemus, les États mènent cette course loin derrière la vitesse à laquelle les outils d’IA se développent.

Chambres Maxwell

Le 27 avril 2023, dans le cadre de sa première #BeyondtheBlackBox série, Maxwell Chambers a organisé une table ronde à huis clos en vertu de la règle de Chatham House sur la mise en œuvre et l’utilisation de l’IA. Les participants ont eu droit à une démonstration en direct de Rocketeer – un outil d’IA capable de prédire l’issue d’un conflit entre marques.

Un sujet longuement débattu était de savoir comment l’utilisation et la mise en œuvre de l’IA pourraient potentiellement étouffer l’innovation juridique et accélérer la vision tunnel. L’IA repose en grande partie sur l’utilisation d’ensembles de données robustes, de modèles et d’apprentissage prédictif. Cependant, cette nature même de l’IA semble antithétique aux conditions requises pour l’innovation juridique. Des cas séminaux comme Donoghue contre Stevenson suggèrent que l’analyse critique et le courage de s’écarter des principes établis sont nécessaires pour les développements juridiques.

Un autre point soulevé dans la discussion est que l’IA n’a pas besoin d’atteindre la perfection avant d’être préférée à l’apport humain dans une grande variété de contextes. Par exemple, si l’IA peut prédire avec une précision de seulement 80 % l’issue probable d’un litige sur la base de faits et de preuves, les entreprises peuvent considérer cela comme préférable à des conseils juridiques coûteux – l’antécédent traditionnel à l’ouverture d’une procédure judiciaire.

Néanmoins, la majorité a convenu que l’IA recèle un grand potentiel et des possibilités pour le secteur juridique. Les utilisations possibles des outils d’IA dans l’arbitrage international et le règlement des différends, tels que ChatGPT, sont à l’étude (comme discuté ici, ici et ici).

Nos pensées

Nature inhérente de l’IA et « Singularité de l’IA » : cela signifiera-t-il davantage d’arbitrages sur des réglementations mal placées ?

Avec la vitesse rapide à laquelle l’IA se développe, les gouvernements se bousculent mettre en place des réglementations pour freiner et contrôler l’utilisation de l’IA. Les régulateurs chinois ont récemment publié Rédiger des règles conçues pour gérer la façon dont les entreprises développent des produits d’IA générative comme ChatGPT, dans le but de circonscrire le développement de l’IA. Par exemple, selon ces règles, le contenu généré par l’IA doit refléter les valeurs fondamentales du socialisme et ne doit pas renverser le pouvoir de l’État. De même, le gouvernement britannique a récemment publié un livre blanc sur l’avenir de la gouvernance et de la réglementation de l’IA.

La précipitation à imposer des réglementations découle de l’hypothèse selon laquelle les préoccupations suscitées par l’IA peuvent être résolues grâce à une meilleure compréhension du fonctionnement de l’IA et à un contrôle efficace des résultats indésirables.

Cependant, la nature inhérente de l’IA rend cela difficile. Les systèmes d’IA actuels utilisent des réseaux de neurones artificiels qui imitent la structure organisationnelle complexe des réseaux de neurones profonds dans le cerveau humain. Le cerveau humain est déjà difficile à comprendre. Il n’est donc pas surprenant que même les personnes à l’origine du développement de l’IA soient confrontées à des problèmes pour expliquer son fonctionnement. et pourquoi certaines sorties sont générées. Nous devrons peut-être accepter que nous ne pouvons pas contrôler ou gérer quelque chose que nous ne comprenons pas.

Le plus grand inconfort avec l’IA est son potentiel à évoluer vers quelque chose que nous ne pouvons plus contrôler ou restreindre, simplement parce que nous ne pouvons pas comprendre comment cela fonctionne. En effet, le concept de « AI Singularity» a été soulevée lors de la table ronde. La singularité de l’IA fait référence au point de basculement auquel les systèmes d’IA deviennent si avancés qu’ils transcendent l’intelligence humaine. À ce stade, l’humanité devient incapable de comprendre ou de contrôler la technologie même qu’elle crée, entraînant potentiellement un avenir où les humains et l’innovation humaine deviennent obsolètes. Les experts ne savent pas quand cela peut arriver, mais la possibilité est certainement préoccupante.

Les régulateurs doivent donc en tenir compte lors de la mise en œuvre de la législation. Nul doute que les praticiens de l’arbitrage surveilleront attentivement cet espace pour les litiges découlant de réglementations mal placées. Une façon possible (mais extrême et potentiellement controversée) de résoudre ce problème est que les régulateurs agissent rapidement et limitent strictement la capacité des parties privées à développer l’IA. C’est peut-être ce que font actuellement les régulateurs chinois. Cependant, nous devons décider jusqu’où nous devons laisser notre peur de l’inconnu limiter les développements potentiellement révolutionnaires que nous pourrions faire en tant que race humaine.

Les outils d’IA prédictive peuvent-ils améliorer le processus décisionnel ?

L’IA pose plusieurs défis qui devraient nous garder sur nos gardes. Les LLM manquent de sensibilisation et les capacités créatives sont limitées aux ensembles de données qui leur sont fournis (« garbage in, garbage out »). L’absence de biais est cruciale pour décider de les intégrer. Par conséquent, les parties et les arbitres peuvent être préoccupés par la simple « externalisation » de la fonction de prise de décision vers des algorithmes prédictifs. Lors de l’utilisation de l’IA prédictive, il est essentiel de détailler son utilisation dans la convention d’arbitrage et de poser des questions telles que : comment les données d’entraînement sont-elles sélectionnées et étiquetées ? Existe-t-il des procédures d’audit intégrées au système ? Comment les données sont-elles mises à jour ? Existe-t-il des contrôles pour les biais algorithmiques ?

De plus, les systèmes d’IA avec des entrées invisibles et des fonctionnements internes pourraient générer des conclusions sans fournir d’explications sur la façon dont elles ont été atteintes (phénomène de la boîte noire). La solution peut résider dans l’incorporation d’une IA explicable dans l’algorithme. Cependant, les algorithmes d’apprentissage automatique ne fondent parfois pas leurs « décisions » et leurs prédictions sur la loi applicable ou les faits de l’affaire, mais sur des informations que les humains ne trouveraient pas pertinentes.

De plus, l’IA pose des défis pratiques dans l’arbitrage :

  • confidentialité et gestion des données : les données des clients peuvent devoir être stockées sur un serveur privé, un cloud ou une salle de données ; il doit être anonyme et ne doit pas être réinjecté dans l’algorithme de formation ;
  • manipulation de preuves; autre
  • violation du principe de l’égalité des armes.

Bien que l’IA ne remplacera pas certaines fonctions cognitives humaines, elle imprègnera de plus en plus notre pratique. Nous devons être prêts à être à l’avant-garde et à répondre aux besoins des clients.

Conclusion

La mise en œuvre et l’utilisation de l’IA comportent à la fois des risques et des avantages, et pas seulement dans le secteur juridique. L’un des moyens par lesquels les gouvernements tentent de gérer les risques est la réglementation et une surveillance attentive. Mais avec l’intérêt croissant et les développements rapides de l’IA, associés aux limites inhérentes à la compréhension humaine des systèmes complexes d’IA neuronale, il reste à voir si nous pouvons continuer à être les maîtres de ce que nous avons créé.

Vous trouverez d’autres articles dans notre série Arbitration Tech Toolbox ici.

Le contenu de cet article est destiné à des fins éducatives et d’information générale. Il n’est pas destiné à des fins promotionnelles. (notre blog d’information) Blog, le comité de rédaction et l’auteur de cet article ne font aucune représentation ou garantie d’aucune sorte, expresse ou implicite, concernant l’exactitude ou l’exhaustivité

Author: Isabelle LOUBEAU