Every year in the run-up to Christmas, millions of gifts are carefully wrapped and distributed around the world, and these often include increasingly sophisticated and intelligent tech gifts.
However, these technologies are not risk-free.
Imagine a new product – an autonomous robot called “GreenBot” that can look after your garden, by planting, pruning trees and lawns, and recommending treatments for your soil. GreenBot has been produced and assembled outside the European Union and is equipped with artificial intelligence (“AI”).
Now let’s assume that the AI system integrated into GreenBot has not been subjected to the risk analysis and assessment processes in accordance with the new Artificial Intelligence Regulations [1].
When it was activated the day after Christmas Eve, you noticed a power surge. Suddenly, GreenBot suffers a major malfunction: instead of mowing your lawn, it removes all the hedges in your garden, fortunately causing only material damage. You assume that your gardening assistant has probably suffered a programming error or a failure in its functional algorithm.
What rules will apply?
At present, national liability rules are not adapted to legal action for damage caused by AI products. These rules require the victim to prove a prejudicial act or omission by the liable person, whereas specific AI characteristics – including complexity, autonomy and opacity (the “black box” effect) – can make it very difficult to identify the liable person and to provide the necessary evidence [2].
It is against this backdrop that two new closely related European laws [3] should soon see the light of day:
The PLD replaces Directive 85/374/EEC on liability for defective products [6] in order to adapt liability rules to new technologies, new circular economy models and new global supply chains [7].
Defective products
The PLD enshrines a natural person’s right to compensation where they have suffered damage caused by virtually any type of defective “product” [8]. The concept of product now encompasses all types of movable property, including components, even if they are integrated into or interconnected with other property.
Software, applications and AI systems are explicitly covered by the PLD. Their manufacturers may be held liable for defects present at the time their software or AI system is placed on the market, including defects that arise following an update.
Damage
The PLD provides for a broadening of the damage covered, i.e. bodily, injury and psychological health damage, as well as damage to property [9].
A product is considered defective when it does not offer the safety that an average person would expect, taking into account in particular the presentation of the product (including the installation, use and maintenance instructions) and the foreseeable use of the product [10].
The manufacturer of the defective product will then be liable for damage caused by the product as a result of the defect.
If this manufacturer is established outside the EU (as is the case with our example of GreenBot), the importer of the defective product, or even its agent, or the service provider responsible for fulfilling orders may be held liable for damage caused [11]. Where none of these persons can be identified, the distributor of the defective product may be held liable for damage caused [12].
Easing the burden of proof
A person claiming to have suffered such damage must currently prove (i) that the product is defective, (ii) that damage has been suffered, and (iii) that there is a causal link between the defect and the damage [13]. This burden of proof has not changed under the new PLD.
However, to make things easier for victims, the PLD provides for the following:
Other rules could still be added, as Member States have until 9 December 2026 to transpose the PLD at national level.
But beware of the limitation period: the right to bring an action for damages lapses 3 years after the date of damage, the defect or the identification of the person liable [14].
Extra-contractual fault
Finally, the AILD has not yet been adopted by the European institutions. It should apply specifically to AI systems [15] and to actions for damages caused by extra-contractual fault – particularly in cases where there is no contractual link between the party who suffered the damage and the party who manufactured the AI system [16]. In such cases, special rules will apply.
Courts will have the power to order the disclosure of evidence relating to high-risk AI systems suspected of causing harm [17], as well as to impose specific measures to ensure the preservation of that evidence [18].
In the event that the party responsible for the AI system fails to comply with the order to disclose or preserve the above-mentioned evidence, the courts could then presume that they have breached a duty of care [19].
The causal link between the fault of the party responsible for the AI system, for example, and the result produced by the AI system would be presumed when three conditions are met: (i) the fault of this party following a breach of a duty of care; (ii) the fault is likely to have influenced the result of the AI system; and (iii) the victim would be able to demonstrate that the result of the AI system caused damage [20].
However, we will have to wait for the European institutions to continue their discussions on AILD before the current legal framework can be adapted to meet new technological challenges.
In anticipation of these future technological and legal advances, the Media, Data, Technologies & IP team at MOLITOR Avocats à la Cour wishes you a very happy festive season!
Chaque année, à l’approche de Noël, des millions de cadeaux sont soigneusement emballés et distribués à travers le monde lesquels s’avèrent de de plus en plus sophistiqués et intelligents.
Cependant, ces technologies ne sont pas exemptes de risques.
Imaginons un nouveau produit — un robot autonome dénommé « GreenBot » permettant d’entretenir votre jardin, réalisant les plantations, taillant des arbres et des pelouses, et faisant des recommandations de traitements pour vos sols. GreenBot a été produit et assemblé en dehors de l’Union européenne et est doté d’intelligence artificielle.
Supposons maintenant que le système d’IA dont GreenBot est composé n’a pas été soumis aux processus d’analyse et d’évaluation des risques conformément au nouveau Règlement sur l’intelligence artificielle [1],
Lors de son activation, le lendemain du Réveillon de Noël, vous constatez une surcharge de puissance. Soudainement, GreenBot subit un dysfonctionnement majeur puisqu’au lieu de tondre votre pelouse, celui-ci a enlevé toutes les haies de votre jardin, ne causant heureusement que des dégâts matériels. Vous supposez que votre assistant jardinier a vraisemblablement dû subir une erreur de programmation ou une défaillance de son algorithme fonctionnel.
Quelles seront les règles applicables ?
Actuellement, les règles nationales en matière de responsabilité ne sont pas adaptées aux actions en réparation des dommages causés par des produits dotés d’intelligence artificielle (l’« IA »). Ces règles requièrent que la victime prouve un acte préjudiciable ou une omission de la part de la personne responsable, alors que les caractéristiques spécifiques de l’IA — dont la complexité, l’autonomie et l’opacité (l’effet de « boîte noire ») — peuvent rendre très difficile l’identification du responsable et l’apport des preuves nécessaires [2].
C’est dans ce contexte que deux nouvelles lois européennes, étroitement liées [3], devraient bientôt voir le jour :
Cette nouvelle directive remplace la directive 85/374/CEE relative à la responsabilité du fait des produits défectueux [6] afin d’adapter les règles de la responsabilité aux nouvelles technologies, aux nouveaux modèles de l’économie circulaire et aux nouvelles chaînes d’approvisionnement mondiales [7].
Produit défectueux
La DRP consacre le droit à réparation de toute personne physique ayant subi un dommage causé par quasiment tout type de « produit » défectueux [8]. La notion de produit englobe désormais tous types de biens mobiliers, y compris les composants, même s’ils sont intégrés ou interconnectés à d’autres biens.
Les logiciels, les applications et systèmes d’IA sont explicitement couverts par la DRP. Leurs fabricants pourront être tenus responsables des défauts présents au moment de la mise sur le marché de leur logiciel ou système d’IA, y compris des défauts qui surviendraient à l’issue d’une mise à jour.
Dommages
La DRP prévoit un élargissement des dommages couverts, à savoir aussi bien les dommages corporels et psychologiques, que les dommages matériels [9].
Un produit est considéré comme défectueux lorsqu’il n’offre pas la sécurité à laquelle une personne moyenne peut s’attendre, compte tenu notamment de la présentation du produit (y compris les instructions d’installation, d’utilisation et d’entretien) et de l’utilisation prévisible du produit [10].
Le fabricant du produit défectueux sera alors responsable du dommage causé.
Si ce fabricant est établi hors de l’UE (comme c’est le cas pour GreenBot), l’importateur du produit défectueux, voire son mandataire, ou encore le prestataire de services d’exécution des commandes, peuvent être tenus responsables du dommage causé [11]. Lorsque l’on ne peut identifier aucune de ces personnes, c’est le distributeur du produit défectueux qui pourra être tenu pour responsable des dommages causés [12].
Assouplissement de la charge de la preuve
Celui qui prétend avoir subi un tel dommage doit actuellement prouver trois éléments : (i) la défectuosité du produit, (ii) le dommage subi, et (iii) le lien de causalité entre la défectuosité et le dommage [13]. Ce principe ne changera pas avec la DRP.
Cependant, afin de faciliter la tâche des victimes, la DRP prévoit le suivant :
D’autres règles pourraient encore être ajoutées puisque les Etats Membres disposent d’un délai jusqu’au 9 décembre 2026 pour transposer la DRP au niveau national.
Mais attention : la possibilité d’introduire une action en réparation d’un dommage prescrit 3 ans à compter du dommage, de la défectuosité ou de l’identification de la personne responsable [14].
Faute extracontractuelle
Enfin, concernant la DRIA, elle n’a pas encore été adoptée par les institutions européennes. Elle devrait s’appliquer spécifiquement aux systèmes d’IA [15] et aux actions en réparation de dommages causés par une faute extracontractuelle – notamment dans les cas où il n’y a pas de lien contractuel entre la personne ayant subi le dommage et celle ayant fabriqué le système d’IA [16]. Dans ces cas, certaines règles spéciales s’appliqueront.
Les tribunaux auront le pouvoir d’ordonner la divulgation des preuves relatives au système d’IA à haut risque soupçonné d’avoir causé un dommage [17], ainsi que des mesures spécifiques pour assurer la conservation de ces preuves [18].
Dans le cas où la personne responsable pour le système d’IA ne respecterait pas l’ordre de divulguer ou conserver les preuves précitées, les tribunaux pourraient alors présumer son manquement à un devoir de vigilance [19].
Le lien de causalité entre la faute de la personne responsable pour le système d’IA par exemple et le résultat produit par le système d’IA serait présumé lorsque trois conditions seraient réunies : (i) la faute de cette personne à la suite d’un manquement d’un devoir de vigilance ; (ii) la faute ait vraisemblablement influencé le résultat du système d’IA, et (iii) la victime serait en mesure de démontrer que le résultat du système d’IA est à l’origine de son dommage [20].
Il faudra néanmoins attendre la poursuite des discussions à l’égard de la DRIA, par les institutions européennes, pour que le cadre juridique actuel puisse être adapté aux nouveaux défis technologiques.
En attendant ces futures avancées technologiques et juridiques, l’équipe Media, Data, Technologies & IP de l’Etude MOLITOR Avocats à la Cour vous souhaite de très belles fêtes de fin d’année !
[1] End of recital (12) of Regulation (EU) 2024/1689 of 13 June 2024 laying down harmonised rules on artificial intelligence.
[2] Proposal for a Directive on adapting non-contractual civil liability rules to artificial intelligence, Explanatory Memorandum, COM(2022) 496 final, p.1.
[3] op.cit, end p.3.
[4] Proposal for a Directive on adapting non-contractual civil liability rules to artificial intelligence, COM(2022) 496 final.
[5] Directive (EU) 2024/2853 of 23 October 2024 on liability for defective products and repealing Council Directive 85/374/EEC.
[6] Art. 21 of the PLD.
[7] Recitals (3) to (5) of the PLD.
[8] Art. 5 of the PLD.
[9] Art. 6.1 of the PLD.
[10] Arts. 7.1 and 7.2 of the PLD.
[11] Art. 8.1 of the PLD.
[12] Art. 8.3 of the PLD.
[13] Art. 10.1 of the PLD.
[14] Art. 16.1 of the PLD.
[15] Art. 1.1 of the AILD.
[16] Art. 1.2 of the AILD.
[17] Art. 3.1 of the AILD.
[18] Art. 3.3 of the AILD.
[19] Art. 3.5 of the AILD.
[20] Art. 4.1 of the AILD.