Résumé:

La première partie de cette contribution est consacrée à la responsabilité des avocats et à la cybersécurité. Il s’agit d’un sujet trop souvent négligé. On insiste beaucoup sur les compétences juridiques des avocats ; personne ne semble en revanche s’inquiéter que des avocats continuent de travailler avec des systèmes d’exploitation désuets qui ne sont plus mis à jour depuis plusieurs années et qui comportent des failles de sécurité importantes, qu’ils stockent des informations confidentielles sur Dropbox, qu’ils utilisent des connexions Wi-Fi publiques non sécurisées pour envoyer des courriels avec leur compte Gmail, ou encore qu’ils enregistrent des dossiers de l’étude, sans les chiffrer, sur des clés USB qui peuvent facilement être égarées dans un train ou un taxi, mettant ainsi gravement en danger la sécurité des données de leurs clients. Il est temps de reconnaître à l’avocat le devoir d’être technologiquement compétent, au même titre qu’il doit l’être d’un point de vue juridique. Dans ce contexte, il est dans l’intérêt public qu’une sanction disciplinaire puisse être prononcée sur la base des art. 12 let. a et/ou 13 LLCA en cas de négligence d’un avocat et à titre préventif, sans qu’un secret ne soit nécessairement révélé. Par ailleurs, comme l’exige le RGPD et (probablement) la future loi suisse sur la protection des données, il est justifié que les avocats doivent annoncer les violations de la sécurité des données de leurs clients, lorsqu’elles sont susceptibles d’engendrer une atteinte à leurs droits et libertés. On peut même se demander si une obligation d’annonce en cas d’atteinte à la sécurité des données entraînant une violation du secret professionnel ne devrait pas être déduite des règles professionnelles de l’avocat, en particulier de l’art. 12 let. a LLCA.

La responsabilité des avocats et l’IA fait l’objet de la seconde partie de cette contribution. Nous sommes confrontés à une nouvelle problématique : l’IA peut effectuer le travail seul et sans aucune supervision humaine, alors que les outils que l’avocat utilisent depuis longtemps, comme un correcteur de textes ou une base de données, ne possèdent aucune autonomie. Dans un premier temps, l’avocat sera technologiquement augmenté, ce qui soulèvera de nouvelles questions concernant sa relation avec la machine. Contrairement à l’avis de certains auteurs qui suggèrent la création d’une personne électronique, nous pensons que les évolutions technologiques actuelles ne justifient pas d’abandonner la summa divisio issue du droit romain qui distingue les personnes et les choses. L’homme doit rester responsable de ce qu’il fait et de ce qu’il crée. Cela est d’autant plus vrai pour les avocats : la loi exige qu’ils exercent leur activité sous leur propre responsabilité. Les règles professionnelles ne devraient cependant pas bloquer toute évolution dans ce domaine ; il serait ainsi prudent de laisser une certaine marge de manœuvre aux avocats qui souhaitent utiliser l’IA. Enfin, les avocats devront être particulièrement vigilants lors de l’utilisation des algorithmes d’apprentissage automatique, dont l’opacité et les biais sont susceptibles de mettre en danger leur indépendance (art. 12 let. b LLCA).

Citation suggérée:

Jérôme Gurtner, Les nouvelles technologies et la responsabilité des avocats: La cybersécurité et l’intelligence artificielle, in: Christine Chappuis/Bénédict Winiger (édit.), Responsabilité civile et nouvelles technologies, Journée de la responsabilité civile 2018, Zurich 2019, p. 45-104.

Lien vers l’ouvrage