TourMaG.com, le média spécialiste du tourisme francophone

logo TourMaG  




IA et droit : chatbot, visuels... quelles sont les obligations ? [ABO]

Atelier juridique de Chloé Rezlan sur l'intelligence artificielle


L'Intelligence artificielle a fait une percée dans notre quotidien, aussi bien au niveau personnel que professionnel. Cette révolution n'est pas sans poser de question, notamment à l'heure où les chatbots sont déployés à tour de bras. Qui est responsable en cas de vente de voyages ou de mauvaise information données par l'assistant ? Faut-il indiquer les usages de l'IA dans le cadre de visuels ? Chloé Rezlan et Valentine Hedde, avocates du cabinet Adeona Avocats ont tenté de répondre à certaines questions entourant le Règlement européen sur l'IA (AI Act).


Rédigé par le Mercredi 22 Janvier 2025

IA et droit : atelier juridique de Chloé Rezlan sur l'intelligence artificielle - Depositphotos @Raffmaster
IA et droit : atelier juridique de Chloé Rezlan sur l'intelligence artificielle - Depositphotos @Raffmaster
En l'espace de deux ans, l'intelligence artificielle a conquis le grand public.

Ce n'est pas une naissance, car elle existait déjà, mais plutôt une renaissance. La première version de ChatGPT a marqué un tournant en la démocratisant. Elle n’est plus un gadget réservé à une élite, mais un outil accessible à une grande partie de la population mondiale, y compris les professionnels du tourisme

Comme c’est souvent le cas, les révolutions s’accompagnent d'un millefeuille réglementaire, notamment en Europe, pour en limiter ses effets néfastes. Il est donc crucial de se tenir informé des dernières évolutions législatives

Afin d’aider les acteurs du secteur, Chloé Rezlan, cofondatrice [Adeona Avocats a élaboré une série de webinaires de 5 épisodes sur l'IA sous toutes les coutures.

Lors du premier volet, l'avocate épaulée de Valentine Hedde, s'est penchée sur le]b Règlement européen sur l'IA appelé aussi IA Act.

"Ce règlement est une première mondiale.

La Commission européenne, précurseur dans le domaine, a eu la volonté, de réguler l'IA tout en favorisant l'innovation. Et cela avant même l'essor de ChatGPT et son adoption par le grand public.

C'est un très gros morceau. Nous parlons de 144 pages de règlements, 113 articles, 5 annexes et 68 définitions juste pour l'article 3.


A tout cela vous ajoutez un champ d'application très large, pas seulement aux sociétés basées dans l'UE, mais aussi celles étrangères qui dirigent leurs activités vers le marché européen
" introduit Chloé Rezlan.

Une introduction musclée pour un sujet qu'il convient de ne plus négliger.


IA : quelle différence entre les systèmes et modèles d'IA ?

Attaquons-nous à cette brique législative imaginée par Bruxelles.

"Au fil des années, l'IA Act a été modifié pour les obligations aux systèmes d'intelligence artificielle et aux modèles d'IA à usage général, comme ChatGPT.

Finalement, cette dernière catégorie s'est imposée pour maintenant être massivement utilisée par les utilisateurs. Il convient de faire la distinction entre ces deux outils,
" explique Valentine Hedde, avocate du cabinet Adeona Avocats.

Pour comprendre la différence, il suffit de se plonger dans le règlement européen.

L'article 3 définit un modèle d'IA générale, comme étant un algorithme qui est entraîné avec un grand nombre de données, pour accomplir des tâches qui visent à reproduire les comportements humains.

On parle alors de ChatGPT ou Claude.

"Le système d'intelligence artificielle à usage général est une solution complète qui intègre un ou plusieurs modèles d'IA, une interface utilisateur, une infrastructure et possiblement une intégration d'autres technologies.

Une fois que l'on sait de quoi nous parlons passons aux risques. L'Union Européenne a prévu ce qu'on appelle une approche par les risques, et c'est une approche assez innovante,
" annonce Valentine Hedde.

IA Act a prévu "des obligations face aux risques"

Cette approche vise à préserver les citoyens des dérives de la technologie aussi bien sur les risques physiques et que la protection des droits fondamentaux.

"Le texte a donc prévu des obligations face à chaque risque. On n'attend pas qu'elle cause un dommage, pour sanctionner, mais un cadre a été anticipé. A chaque obligation non tenue, derrière l'entreprise est punie.

Il existe 4 grandes catégories de risques, (voir visuel ci-contre, ndlr)
" dévoile Chloé Rezlan.

Au sommet de la pyramide, nous trouvons les pratiques interdites.

Il en existe 8, parmi lesquelles nous trouvons l'interdiction de la
notation sociale comme en Chine.

Vient ensuite, les systèmes à haut risque qui sont en quelque sorte "le cœur du règlement". C'est le cas d'un produit ou un composant (d'un produit) soumis à une évaluation de conformité en vue de sa mise sur le marché par un tiers.

"L'exemple le plus parlant est celui des jouets, sur lequel figure la marque CE.

Ainsi, l'intégration du système d'IA à un jouet, alors il sera considéré comme un SIA à haut risque. Cette catégorie englobe aussi des domaines qui sont visés à l'annexe 3, comme la biométrie ou l'éducation, donc des domaines jugés critiques par le législateur.

Le tourisme peut souffler un bon coup, il est assez peu probable qu'il soit concerné par des obligations lourdes,
" rassure la cofondatrice du cabinet.

Quant aux, ChatGPT et consorts, ils se trouvent dans une autre sphère, dont peut découler un risque systémique.

IA Act : les agents de voyages ont des responsabilités !

Comme toujours avec l'Europe, il y a différentes grilles de lecture.

Non seulement il existe des obligations en fonction de votre position dans la création de cette technologie, mais aussi selon la fonction que vous tenez dans la chaine d'usage de l'IA.

Ainsi, le fournisseur est celui qui a le plus d'obligation, puisqu'il a ou fait développer un système/modèle d'IA. Par définition et si ce n'est Quicktext, très peu d'acteurs du tourisme se trouvent dans ce cas.


La définition qui intéressera le plus nos lecteurs est celle du déployeur. Il s'agit d'une personne qui utilise sous sa propre autorité un système d'IA dans le cadre de son activité commerciale.

"Pour faire notre travail de traduction juridique et pour déterminer quelles obligations ont les professionnels en tant qu'opérateurs, il est indispensable de les qualifier. Sont-ils fournisseurs ou déployeurs ?

Puis après avoir défini les catégories de risques qui les concernent.
Une fois que l'on a ces deux éléments, il sera possible de déterminer les obligations qui en découlent,
" détaille Chloé Rezlan.

Et mauvaise nouvelle, pour les agents de voyages, ce n'est pas parce que vous êtes un simple utilisateur de ChatGPT que vous ne devez pas avoir de compte à rendre à vos clients.

Publié le 12 juillet 2024, le règlement européen sera en partie appliqué le 2 août 2025. Les pratiques interdites en matière d'intelligence artificielle entreront en vigueur le 2 février 2025.

L'intégralité du texte sera définitivement appliquée le 2 août 2026.

Chatbot : en cas de mauvaise information qui est responsable ?

L'essentiel ou presque du document édité par Bruxelles est maintenant étudié, rentrons dans le vif du sujet.

Prenons deux cas, celui des chatbot et des visuels générés pour des campagnes de marketing.

"Le premier est souvent utilisé dans le secteur du tourisme pour diriger les demandes de certains clients ou pour faire de la génération d'itinéraires.

Bien souvent, les professionnels intègrent un modèle à usage général dans sa propre interface. Il est ensuite mis à disposition des clients sous sa propre marque.

Les mêmes obligations s'appliquent qu'on utilise de l'IA ou pas, donc la directive du voyage à forfait. Si vous êtes l'opérateur du séjour, vous avez l'obligation d'être immatriculé.

Si jamais un agent de voyages utilise un chatbot en marque blanche fourni pour vendre des voyages, il devrait dans un premier temps s'assurer que le fournisseur est conforme à la règlementation de l'Union.

De même une agence de voyages qui met en place un chatbot pour qu'il réponde au client à destination. Dans le cas où l'assistant virtuel donne une réponse erronée, l'agence sera responsable de plein droit au titre du code du tourisme,
" recadre Chloé.

Images IA : que faut-il mentionner ?

Dans tous les cas d'usage de l'IA, il existe une exigence essentielle, souvent oubliée : celle de la transparence.

Cette obligation est valable à partir du moment où le système d'intelligence artificielle est destiné à interagir directement avec des personnes physiques. Vos clients ont le droit de savoir qu'ils interagissent avec une IA, dans le cas d'un chatbot ou de savoir qu'une image/vidéo a été générée par Midjourney par exemple, quand il s'agit d'une campagne marketing.

Dans ce deuxième cas, nous parlons d'hypertrucage, tel que défini par le règlement européen.

"Les personnes ont le droit de savoir ce qu'elles voient.

Par contre aujourd'hui, il n'y a pas de phrase clé obligatoire à mentionner. Il est possible d'inscrire : image générée par l'IA, mais sublimée par l'homme,
" donne comme exemple l'avocate.

Il en est de même pour le texte marketing rédigé à l'aide d'un assistant basé sur cette nouvelle technologie. Surtout pour les contenus publiés dans le but d'informer les gens sur des questions d'intérêt public.

"Demain, quand vous allez rédiger un post LinkedIn avec de l'IA, vous n'avez aucune obligation de mentionner cette aide, par contre un journaliste peut se poser la question.

Pour l'heure nous n'avons pas encore les contours de la définition de l'intérêt public,
il sera intéressant de voir le législateur trancher,
" conclut Chloé Rezlan.

Le prochain atelier portera toujours sur l'IA, mais cette fois-ci sur le thème des données. Rendez-vous le 18 février 2025 à 12H00.

A vos agendas :

18 février 2025 à 12H00 - Droit de la donnée : comment concilier innovation et conformité ? Avec Julien Abella, avocat fondateur de MöBIUS Avocats en droit de la donnée et DPO certifié CNIL.
Cliquez ici pour vous inscrire au 2e épisode

11 mars 2025 à 12H00 - Droits d'auteur : L'IA, entre opportunités créatives et protection des œuvres, avec Clara Viguié, avocate en droit de la propriété intellectuelle.
Cliquez ici pour vous inscrire au 3e épisode

25 mars 2025 à 12H00 - Droit du travail : L’impact de l’IA sur les relations employeurs-salariés avec Laura Ballester, avocate en droit du travail.
Cliquez ici pour vous inscrire au 4e épisode


Lu 351 fois

Notez

Nouveau commentaire :

Tous les commentaires discourtois, injurieux ou diffamatoires seront aussitôt supprimés par le modérateur.
Signaler un abus









































TourMaG.com
  • Instagram
  • Twitter
  • Facebook
  • YouTube
  • LinkedIn
  • GooglePlay
  • appstore
  • Google News
  • Bing Actus
  • Actus sur WhatsApp
 
Site certifié ACPM, le tiers de confiance - la valeur des médias