Sélectionner une page

IA et protection des données en 2025 : comment utiliser les LLM en conformité avec le RGPD et maîtriser l'IA fantôme dans l'entreprise

Comment utiliser l'IA et les LLM tels que ChatGPT dans votre entreprise en conformité avec le RGPD, en tenant compte du règlement européen sur l'IA, de l'IA fantôme et des plateformes conformes à la protection des données telles qu'InnoGPT.

Cet article a été mis à jour pour la dernière fois le 12 décembre 2025.

info
Écrit par Saskia Teichmann
le 12 décembre 2025
Envoi
Revue des utilisateurs
5 (3 votes)
Commentaires Classement 0 (0 examen)
Comparaison entre une IA parallèle non contrôlée et une plateforme d'IA centralisée et conforme à la protection des données

Il y a de fortes chances que quelqu'un utilise déjà l'IA dans votre entreprise, sans aucune directive, autorisation ou contrat AV.

En marketing, les textes sont peaufinés avec ChatGPT, dans la distribution, les données clients sont enregistrées dans des invites, et dans le développement, le code est vérifié à l'aide d'outils d'IA. Bien intentionné, mais du point de vue de RGPD, règlement européen sur l'IA et conformité des entreprises C'est une bombe à retardement : l'IA fantôme.

Dans le même temps, il serait absurde de renoncer aux gains de productivité offerts par les technologies modernes. Modèles linguistiques de grande taille (LLM) renoncer. Tout l'art consiste à, IA et protection des données avec un cadre clair qui favorise l'innovation et limite les risques.

En tant que Experte certifiée en IA (certificat MMAI® Business School, Academy4AI) et future membre de l'association fédérale allemande pour l'IA j'accompagne les entreprises précisément dans cette intersection entre technologie, droit et gouvernance – et en tant que Spécialiste WooCommerce et développeur WordPress pour les PME et l'industrie Je connais très bien la perspective pratique grâce à des projets.

Cet article traite des thèmes suivants :

  • comme le RGPD et Règlement de l'UE sur l'IA (AI Act) interagir,
  • quels sont les risques réellement pertinents liés à l'utilisation de ChatGPT, Claude, Gemini & Co.,
  • lesquelles Règles pratiques pour une utilisation de l'IA respectueuse de la protection des données devraient introduire,
  • et pourquoi une plateforme telle que InnoGPT est une option intéressante si vous souhaitez offrir à vos équipes une Environnement IA conforme au RGPD souhaitent mettre à disposition.

Dans cet article, je partage mon point de vue professionnel en tant qu'experte certifiée en IA. Toutefois, cet article ne remplace pas un conseil juridique individuel. Si vous avez besoin d'une évaluation contraignante en matière de protection des données, je vous recommande de faire appel à un avocat qualifié ou à un délégué à la protection des données.

1. Le cadre juridique contraignant 2025 : RGPD + règlement européen sur l'IA (AI Act)

1.1 Le RGPD reste la base pour toutes les données à caractère personnel

Dès que vous données personnelles lorsqu'elles sont intégrées dans des systèmes d'IA, que ce soit à des fins de formation, de réponse à des demandes ou d'analyse, le RGPD s'applique. Vous devez notamment :

  • une base juridique conformément à l'article 6 du RGPD,
  • transparence garantir aux personnes concernées,
  • minimisation des données prendre en considération,
  • Mettre en œuvre des mesures techniques et organisationnelles (TOM),
  • et, le cas échéant,. Évaluations d'impact relatives à la protection des données (DSFA) effectuer. (Handelsblatt en direct)

La Conférence allemande sur la protection des données (DSK) a publié en 2024 un rapport détaillé Guide „ IA et protection des données “ publié. Elle précise clairement que toute personne qui sélectionne et utilise des applications d'IA est responsable de la conformité de ce choix avec la protection des données, y compris le choix du fournisseur, les flux de données et la configuration. (Conférence sur la protection des données)

Le EDPB (Comité européen de la protection des données) a, avec son Groupe de travail ChatGPT Il aborde également des questions concrètes relatives à la légalité du web scraping, à la transparence et aux exigences d'exactitude dans le cadre des LLM. (CEPD)

En bref : même si l'IA est nouvelle, En matière de protection des données, elle ne constitue pas un vide juridique..

1.2 Règlement européen sur l'IA (AI Act) : axé sur les risques et la gouvernance

Avec la Règlement de l'UE sur l'IA (règlement (UE) 2024/1689) l'UE a adopté en 2024 le premier cadre juridique complet au monde pour les systèmes d'IA. L'AI Act est en vigueur depuis 1er août 2024 en vigueur et établit une approche fondée sur les risques : du risque minimal au risque limité, en passant par le risque IA à haut risque et pratiques interdites. (EUR-Lex)

Des points importants :

  • Quelques-uns Interdiction de certaines pratiques d'IA (par exemple, certaines formes de systèmes manipulateurs) et les exigences relatives à Compétences en IA / AI Literacy sont déjà en vigueur depuis 2 février 2025. (Loi européenne sur l'intelligence artificielle)
  • La plupart des obligations – en particulier pour IA à haut risque – sera progressivement mis en place jusqu'en 2 août 2026 efficace, avec des précisions et des lignes directrices supplémentaires fournies par la Commission européenne et le nouveau Bureau européen de l'IA. (Service d'assistance AI Act)
  • La loi sur l'IA établit notamment des exigences concernant Gestion des risques, qualité des données, journalisation, documentation technique, transparence, supervision humaine et structures de gouvernance. (EUR-Lex)

L'UE discute actuellement, étendre certaines obligations pour l'IA à haut risque jusqu'en 2027, afin de donner aux entreprises plus de temps pour se mettre en conformité. Il s'agit à ce jour (11 décembre 2025) d'une proposition politique qui doit encore passer par le processus législatif. (Reuters)

Important pour vous :
Le RGPD reste pleinement applicable, l'AI Act les complète. En cas de doute, la règle suivante s'applique :

„ La loi sur l'IA réglemente ce que ce qu'un système d'IA est autorisé à faire – le RGPD réglemente, comme Vous êtes autorisé à traiter des données à caractère personnel. “ (Handelsblatt en direct)

1.3 Compétences en IA et obligations en matière de gouvernance : pourquoi les entreprises doivent démontrer leurs compétences en IA depuis 2025

Le règlement européen sur l'IA établit pour la première fois un cadre clair pour l' responsabilité organisationnelle des entreprises, qui utilisent des systèmes d'IA, qu'ils développent leurs propres modèles ou utilisent des outils externes.

Deux points sont particulièrement importants depuis 2025 :

Obligation de maîtrise de l'IA (art. 4 AI Act) – applicable depuis février 2025

Les entreprises qui fournissent ou utilisent des systèmes d'IA („ fournisseurs “ et surtout „ déployeurs “) doivent s'assurer que leurs employés disposent d'un niveau suffisant de compétences en IA possèdent. Concrètement, cela signifie :

  • Les collaborateurs doivent comprendre comment fonctionne l'IA, où se situent les risques et comment l'utiliser en toute sécurité.
  • Les entreprises doivent proposer des formations, des mesures de sensibilisation et des directives internes.
  • Ces mesures doivent être documentées de manière à pouvoir être justifiées dans le cadre de l'obligation de rendre compte.

En d'autres termes :

„Depuis février 2025, “ utiliser l'IA „ va de pair avec “ prouver ses compétences en matière d'IA ».

Gouvernance de l'IA – applicable à l'IA à usage général depuis août 2025

Avec l'entrée en vigueur des réglementations relatives à l'IA à usage général (GPAI) en août 2025, des exigences organisationnelles supplémentaires s'appliqueront, en particulier pour les fournisseurs, mais aussi indirectement pour les entreprises qui utilisent ces systèmes de manière productive :

  • documentation structurée des modèles utilisés,
  • Surveillance et enregistrement de l'utilisation,
  • Processus pour la gestion des incidents, des risques et des réclamations,
  • des rôles et des responsabilités clairs dans l'utilisation de l'IA.

Même si l'ensemble des obligations relatives à l'IA à haut risque n'entrera en vigueur qu'en 2026/2027, une chose est claire :
Sans un concept de gouvernance de l'IA, c'est-à-dire sans responsabilités, directives, processus et formations documentés, il sera de plus en plus difficile pour les entreprises de prouver de manière crédible qu'elles utilisent l'IA conformément à l'AI Act et au RGPD.

2. Ce que les autorités de surveillance disent concrètement à propos de l'IA et des LLM

Pour mieux comprendre, examinons brièvement trois sources essentielles :

  1. Guide DSK „ IA et protection des données “ (2024) – fournit aux entreprises et aux autorités des critères pour sélectionner et utiliser les systèmes d'IA : limitation de la finalité, base juridique, minimisation des données, transparence, traitement des commandes, mesures techniques et organisationnelles. (Conférence sur la protection des données)
  2. Rapport du groupe de travail EDPB ChatGPT (mai 2024) – met notamment en lumière :
    • comment évaluer juridiquement la formation au web scraping des données à caractère personnel,
    • quelles sont les obligations de transparence et d'information envers les utilisateurs,
    • les exigences en matière d'exactitude et d'équité des réponses LLM. (CEPD)
  3. Fiches techniques nationales, par exemple HWR Berlin / délégués à la protection des données – montrent très concrètement quelles données sont générées lors de l'utilisation de l'IA générative et comment cette utilisation peut être conçue de manière à respecter la protection des données (par exemple, pas d'identifiants directs, pseudonymisation, pas de données sensibles dans les outils librement accessibles). (Protection des données HWR Berlin)

Le message est similaire partout :

  • Principe : fournir le moins de données personnelles possible aux systèmes d'IA.
  • Les entreprises ont besoin de règles claires, quels outils peuvent être utilisés et comment.
  • „ Juste essayer rapidement “ n'est pas un motif juridique valable.

3. Risques typiques : comment l'IA fantôme apparaît dans l'entreprise

Voici quelques situations typiques que je rencontre régulièrement :

  • Le service marketing charge les données clients (par exemple, exportation CRM) dans n'importe quelle application Web IA afin de „ créer rapidement des segments “.
  • Les RH font évaluer les contrats de travail ou les candidatures par ChatGPT, y compris les données personnelles complètes.
  • Le service commercial copie l'intégralité des échanges d'e-mails contenant des informations personnelles dans des modèles de langage neuronal (LLM) afin de formuler de „ meilleures réponses “.
  • Les départements spécialisés utilisent des outils LLM gratuits sans compte d'entreprise, sans contrat AV, sans savoir où les données sont traitées.

Du point de vue de la protection des données, cela soulève plusieurs problèmes :

  • non élucidé Rôles et responsabilités (contrôleur / processeur),
  • possible Transferts vers des pays tiers (par exemple, États-Unis),
  • peu clair Stockage et utilisation des données à des fins d'entraînement,
  • manquant ou insuffisant Information des personnes concernées.

C'est précisément ces cas que les autorités de contrôle de la protection des données ont examinés de plus près ces derniers mois, allant jusqu'à imposer des restrictions à court terme et à contrôler certains fournisseurs. (StreamLex)

4. 10 règles de base : utiliser les LLM dans le respect de la protection des données (en solo et en équipe)

Que vous soyez entrepreneur individuel ou informaticien dans une PME, les règles suivantes sont très utiles dans la pratique pour LLM conformes au RGPD utiliser :

  1. Pas de données personnelles sensibles dans les comptes consommateurs
    Les données relatives à la santé, les catégories particulières au sens de l'article 9 du RGPD, les informations confidentielles sur les employés, les contrats internes, etc. n'ont pas leur place dans des interfaces IA librement accessibles. (Protection des données HWR Berlin)
  2. Pseudonymiser ou anonymiser dans la mesure du possible
    Au lieu de „ Max Mustermann, IBAN, projet XY chez le client Z “, préférez : „ Client A, budget B, projet dans le domaine de la construction mécanique, pays d'exportation D “.
  3. Une stratégie claire en matière d'outils : séparer vie privée et vie professionnelle
    Pas de „ Je vais simplement utiliser mon compte ChatGPT privé “. Définissez des outils partagés et, en cas de doute, bloquez les domaines problématiques sur le proxy de l'entreprise. (Base de données régionale NRW)
  4. Créer une politique interne à l'entreprise („ AI Policy “)
    Concis, compréhensible, pratique : quels outils sont autorisés ? Quelles données peuvent être saisies ? Qui est la personne à contacter en cas de questions ? Aujourd'hui, une directive sur l'IA n'est plus un simple „ plus “, mais un élément central de la gouvernance de l'IA.
  5. Clarifier la base juridique
    Au sein de l'entreprise, vous vous baserez souvent sur des intérêts légitimes (art. 6, al. 1, let. f RGPD), l'exécution d'un contrat ou, le cas échéant, des consentements. Il est important de disposer d'une documentation claire dans le Registre des activités de traitement. (Conférence sur la protection des données)
  6. Vérifier les DSFA, en particulier dans les scénarios sensibles
    Lorsque les systèmes d'IA interviennent massivement dans les processus commerciaux ou contiennent des éléments de profilage, une Évaluation de l'impact sur la protection des données souvent obligatoire. (Conférence sur la protection des données)
  7. Consigner et rendre compréhensible
    Qui utilise quel système et dans quel but ? La journalisation n'est pas seulement une question de sécurité informatique, mais aussi de gouvernance, et s'inscrit parfaitement dans la logique axée sur la documentation de l'AI Act. (EUR-Lex)
  8. Choisir consciemment les modèles et les fournisseurs
    Vérifiez : hébergement (UE/EEE ?), contrat AV, politique de stockage et de formation, transparence, fonctionnalités techniques de sécurité. Certains fournisseurs font désormais explicitement la promotion de la „ rétention zéro “ et de „ l'absence de formation sur les données des clients “. (ASCOMP)
  9. Former les collaborateurs – une obligation légale depuis février 2025
    Formations courtes, démonstrations en direct, petits ateliers sur des cas d'utilisation – Objectif : comprendre où se trouvent les opportunités et où se situent les limites.
    Depuis février 2025, le règlement européen sur l'IA (EU AI Act) exige expressément que les entreprises garantissent un niveau suffisant de compétences en matière d'IA (AI Literacy). Les formations, les directives internes et la participation documentée deviennent ainsi de facto une composante obligatoire de la conformité en matière d'IA, à l'instar des formations sur la protection des données ou la sécurité de l'information.
  10. Intégrer l'IA et la protection des données à votre stratégie web et SEO existante
    Ceux qui utilisent déjà proprement SEO technique, performance et gestion structurée des données dispose d'une bonne base pour des intégrations IA propres. Connaissez-vous mon guide sur référencement technique ainsi que mon article sur les Principales tendances SEO pour 2024 – car la visibilité, la confiance et les technologies juridiquement sûres sont étroitement liées. (saskialund.de)

5. Pourquoi les comptes consommateurs (comptes gratuits ou de base) de ChatGPT & Co sont délicats pour les entreprises

Même avec des améliorations dans les paramètres de confidentialité, l'utilisation de comptes consommateurs classiques reste problématique dans de nombreux contextes professionnels :

  • Transferts de données vers des pays tiers et des chaînes de sous-processeurs complexes,
  • limité ou absent Contrats de traitement des commandes,
  • Transparence insuffisante pour les personnes concernées,
  • Utilisation partielle des contributions relatives au formation de mannequins (selon l'opérateur / le tarif), même si de nombreux opérateurs proposent désormais des options „ opt-out “ ou « business ». (eRecht24)

Cela ne signifie pas que vous ne pouvez pas utiliser ces outils, mais :

  • Dans le contexte de l'entreprise ils ne peuvent souvent être correctement sécurisés qu'au prix d'un effort considérable de coordination, d'examen des contrats et de mesures supplémentaires.
  • Dans le contexte entrepreneurial notamment, il est donc souvent intéressant de franchir le pas vers plateformes IA dédiées, qui sont explicitement conçus pour une utilisation conforme au RGPD.

6. Plateformes d'IA conformes à la protection des données – Focus sur InnoGPT

Il existe désormais des plateformes qui proposent différents LLM dans un environnement hébergé par l'UE et conforme au RGPD regrouper. L'une d'entre elles est InnoGPT.

6.1 Qu'est-ce qui caractérise InnoGPT ?

Les descriptions accessibles au public permettent d'en tirer la conclusion suivante :

  • InnoGPT regroupe modèles linguistiques de pointe (par exemple GPT-4, GPT-5, Gemini, Claude, Mistral, etc.) dans une plateforme spécialement conçue pour entreprises allemandes et européennes vise. (sysbus.eu)
  • La plateforme mise sur Hébergement en Europe et fait de la publicité avec une „ politique de rétention zéro “ garantie contractuellement“, c'est-à-dire que les données saisies par les clients ne sont pas utilisées pour entraîner les modèles d'IA et sont traitées exclusivement sur des serveurs européens. Elles ne sont donc pas transmises au fournisseur tiers d'origine. (ASCOMP)
  • Elle répond aux exigences typiques des entreprises telles que Fonctionnalités d'équipe, flux de travail et intégration dans les processus existants.

Si vous souhaitez voir concrètement à quoi cela ressemble, n'hésitez pas à utiliser le lien suivant :

Découvrir InnoGPT (lien partenaire)

Pour les entreprises qui Remplacer l'IA de l'ombre et souhaitent en même temps mettre à la disposition de leurs équipes des outils modernes, cette approche est particulièrement intéressante :

Vos équipes continuent à travailler avec des modèles puissants, mais dans une environnement contrôlé, documenté et conforme au RGPD.

7. Exemples pratiques : comment les PME et l'industrie pourraient utiliser InnoGPT

Voici quelques scénarios que j'ai rencontrés dans le cadre de projets et de discussions avec des clients :

  1. Ventes techniques et établissement d'offres
    • Les textes spécialisés, les descriptions de produits et les offres sont préparés via InnoGPT.
    • Les documents utilisés en interne peuvent être intégrés à l'aide de techniques de récupération sans que l'entreprise ne perde le contrôle des données. (arXiv)
  2. Gestion des connaissances et documentation
    • Les directives internes, les manuels et les procédures opérationnelles standardisées sont mis à disposition dans un environnement sécurisé pour les questions-réponses.
    • Les collaborateurs posent des questions telles que „ Quelles sont les étapes de contrôle applicables à la gamme de produits X ? “ – InnoGPT fournit des réponses basées sur des documents internes, sans les transmettre à des systèmes de formation externes. (arXiv)
  3. Marketing et contenu pour les sites web et boutiques B2B
    • Ébauches de contenu pour Boutiques WooCommerce, pages produits et articles de blog sont établis, puis soumis à un contrôle technique.
    • Grâce au stockage et au traitement des données en Europe, cette solution s'intègre beaucoup mieux dans une stratégie existante de protection des données et de conformité que l'utilisation d'outils grand public dispersés. (Capterra)

8. Gouvernance et stratégie IA : de l'outil individuel à la solution d'entreprise

Si vous ne voulez pas laisser l'IA au hasard dans votre entreprise, il vous faut plus qu'un simple outil :

  1. inventaire
    • Qui utilise déjà quels outils d'IA et à quelles fins ?
    • Quelles données sont transmises et où ?
  2. Définir l'objectif visé
    • Quels cas d'utilisation doivent être officiellement pris en charge (par exemple, texte, code, recherche, notes de réunion) ?
    • Comment l'IA s'intègre-t-elle dans votre Stratégie numérique et SEO un ?
  3. Consolider l'environnement des outils
    • Au lieu de cinq services d'IA différents fonctionnant en arrière-plan : une plateforme partagée, par exemple InnoGPT, complété par des outils spéciaux clairement définis.
  4. Ancrer les directives et les processus
    • Politique en matière d'IA, contrats AV, registre des activités de traitement, formations.
    • Directive IA, modèle de rôle, processus d'escalade et de validation.
  5. Suivi et adaptation continue
    • Mise en œuvre de l'AI Act, nouvelles directives des autorités de surveillance, évolutions techniques : la gouvernance n'est pas un projet ponctuel, mais un processus continu. (AKEurope)

Pourquoi cela va au-delà des „ meilleures pratiques “ :
La loi sur l'IA exige, progressivement entre 2025 et 2027, un système de gouvernance documenté pour les entreprises qui utilisent l'IA. Sans structure de gouvernance IA interne (directives, formations, surveillance), il sera très difficile à moyen terme de prouver aux autorités de contrôle et aux partenaires commerciaux que l'utilisation de l'IA est contrôlée, responsable et conforme.

La direction et les responsables informatiques/de la protection des données sont réunis devant un tableau de bord intégrant des éléments d'IA et de conformité.

9. Liste de contrôle : rendre l'IA dans l'entreprise conforme au RGPD et à l'AI Act

Une brève liste de contrôle, que vous pouvez commencer dès aujourd'hui :

  1. faire l'inventaire – Où l'IA est-elle déjà utilisée dans l'entreprise (outils, types de données, processus) ?
  2. Effectuer une évaluation des risques – Quelles sont les interventions qui ne sont pas critiques, lesquelles concernent des données sensibles ou des processus clés ?
  3. Vérifier les bases juridiques et les contrats – RGPD, contrats AV, flux de données, transferts vers des pays tiers.
  4. Définir la plateforme approuvée – par exemple. InnoGPT, une solution d'IA centrale et conforme au RGPD pour les équipes
  5. Adopter une politique en matière d'IA – compréhensible, pratique, avec des exemples et des conseils sur ce qu'il faut faire et ne pas faire.
  6. Formation et habilitation – Permettre aux collaborateurs d'utiliser l'IA de manière ciblée, responsable et efficace, et documenter ces formations (AI Literacy).
  7. Documentation et suivi – Prendre au sérieux la logique de l'AI Act et du RGPD : documenter, évaluer, affiner. (EUR-Lex)

Sources

  1. Conférence sur la protection des données (DSK), guide „ IA et protection des données “ (version du 06/05/2024) – Critères de sélection et d'utilisation des applications d'IA dans les entreprises et les administrations. (Conférence sur la protection des données)
  2. Comité européen de la protection des données (CEPD), „ Rapport sur les travaux entrepris par le groupe de travail ChatGPT “ (24 mai 2024) – Première évaluation européenne concertée des pratiques de traitement des données de ChatGPT à la lumière du RGPD. (CEPD)
  3. Fiche d'information „ Utilisation de l'IA générative et protection des données “ (université / délégué à la protection des données, version 04/2024) – Guide pratique pour l'utilisation de l'IA générative, en particulier ChatGPT, du point de vue de la protection des données. (Protection des données HWR Berlin)
  4. eRecht24, „ ChatGPT peut-il être utilisé dans le respect de la protection des données ? “ (2025) – Classification pour une utilisation de ChatGPT respectueuse de la protection des données, y compris des informations sur l'utilisation de la formation et les paramètres. (eRecht24)
  5. Règlement (UE) 2024/1689 – Loi sur l'intelligence artificielle (AI Act) – Cadre juridique officiel de l'UE pour l'IA, comprenant notamment une approche fondée sur les risques, des obligations en matière de gouvernance et un calendrier d'application. (EUR-Lex)
  6. Service d'assistance relatif à la loi européenne sur l'IA et calendrier FPF – Aperçu de la mise en œuvre progressive de la loi sur l'IA jusqu'en 2026/2027. (Service d'assistance AI Act)
  7. Reuters & Le Monde (2025), rapports sur les propositions de la Commission européenne visant à étaler dans le temps les obligations à haut risque de l'AI Act – Indications concernant le report prévu de certaines réglementations jusqu'en 2027. (Reuters)
  8. Handelsblatt Live, „ IA et protection des données : comment utiliser les systèmes d'IA en conformité avec le RGPD “ (2025) – Classification de l'interaction entre le RGPD, la BDSG et l'AI Act dans le contexte de l'entreprise. (Handelsblatt en direct)
  9. ASCOMP, sysbus.eu, Capterra – Informations sur InnoGPT en tant que plateforme d'IA conforme au RGPD, hébergée dans l'UE et adoptant une approche zéro rétention. (ASCOMP, sysbus.eu, Capterra)
  10. arXiv – Articles spécialisés sur les applications d'IA basées sur la recherche et les scénarios de gestion des connaissances dans le contexte entrepreneurial. (arXiv)
  11. AKEuropa – Analyses et rapports de fond sur la mise en œuvre pratique de l'AI Act en Europe. (AKEuropa)

Remarque : Cet article fournit des conseils techniques sur l'utilisation des systèmes d'IA conformément au RGPD et à l'AI Act. Il ne remplace pas un avis juridique. Pour obtenir des évaluations contraignantes, vous devez faire appel à un expert juridique.

<span class="castledown-font">Saskia Teichmann</span>

Saskia Teichmann

Saskia Teichmann est experte certifiée en IA (MMAI®), bientôt membre de l'association fédérale allemande pour l'IA, spécialiste WooCommerce et développeuse WordPress. Elle aide les PME et l'industrie à intégrer l'IA, le RGPD, le règlement européen sur l'IA et les technologies web modernes dans une stratégie numérique durable et conforme à la législation.

Faire une demande de projetDistribuer du café

0 commentaires

Soumettre un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Envoi