Machine

Learning Audit

Casting light into the dark

 
LOGO.png

Vers une IA

de confiance

L'Intelligence Artificielle change le monde et nous croyons qu'elle doit servir l'Homme et non contraindre ses libertés. Comment faire confiance à ce qui n'est pas maîtrisé ?

Depuis Avril 2016, la Régulation Générale de la Protection des Donnés (RGPD) donne le droit de regard sur les décisions prises par des algorithmes aux citoyens européens. Il y a un besoin de contrôle et maîtrisé de l'IA pour que notre société embrasse pleinement cette nouvelle révolution numérique.

C'est pourquoi Disaitek s'est donné comme mission l'expertise de l'IA, afin de pouvoir expliquer son fonctionnement, ses descisions, analyser ses biais, s'assurer de sa qualité et de sa sécurité.

L'IA peut être la cause d'un désastre

Equité

Il est possible qu'une IA apprenne des biais non désirés pour résoudre un problème. Notamment, lorsque le domaine d’application est lié à l'humain (médical, financier, juridique ...), l'IA peut apprendre des biais impropre à nos standard de société. Pour être sûr que l'IA ne discrimine pas selon des caracteristiques injustes, il est nécessaire d'étudier son fonctionnement interne. Nous développons des techniques qui permettent de savoir sur quelles données, l'IA base ses décisions.

Sécurité et robustesse

L'intelligence artificielle n'a pas été à la base conçue en prenant compte des problématiques de sécurité informatique. De plus son comportement face à des données vraiment différentes de celles de son entraînement doit être étudié. Nous testons l'IA du point de vue de l'attaquant afin d'évaluer sa robustesse et sa résistance face
aux menaces de sécurité.

Respect de la vie privé et de la confidentialité

Lorsque les données d'entrainement de l'IA sont confidentielles, alors l'IA est un vecteur de fuite d'information. Grâce à certaines méthodes d'attaque, il est possible de reconstruire des échantillons d'entrainement, ou encore de voler les paramètres du modèle (propriété intellectuelle). Cela peut compromettre la confidentialité de votre entreprise et celle de vos clients.

Nous avons établi une Carte des Menaces sur l'IA, qui dresse une liste des différents sujets à maîtriser avant de mettre réellement une IA en production.  

Déployez votre AI

en toute confiance

Nous avons créé ML Audit, un service de consulting conçu pour vous donnez les outils pour maîtriser votre IA. Nous analysons les données et le ML entraîné avec des méthodes de l'état de l'art de la recherche pour comprendre les décisions, les biais, l'importance des features et en explorer la sécurité du point de vue de l'attaquant.

 

Comment ?

  • Nous analysons votre dataset votre ML.  

    • Analyse de distribution et des correlations des features, analyse des déséquilibres de features, sélection de features ...

  • Suivant les informations que nous obtenons, nous décidons ensemble si une mesure corrective est nécessaire.

    • Débiaisement des embeddings de mots, débiaisement des poids de réseaux de neurones, explication des décisions du ML, contremesures aux adversarial samples / à la fuite d'informations confidentielles / à l'empoisonnement des données ...

  • Nous définissons avec vous les mesures de succès de l'opération.

    • Tirer le maximum du compromis entre la performance de la solution et les mesures correctives ​.

Lorsque le projet est fini, votre ML n'est plus un secret pour vous et vous avez les leviers de son contrôle à votre disposition.

Notre mission

Disaitek a été fondé avec une seule mission: apporter de la connaissance sur l'IA et utiliser l'IA pour apporter de la connaissance.

Nous sommes des acteurs dans les domaines de l'égalité des chances / étude des biais, la sécurité et la confidentialité de l'IA. Nous avons été sélectionné dans l'European AI Alliance, pour participer à la conception des directives Européennes sur l'éthique de l'IA, afin d'assurer la compétitivité de l'IA des régions Européennes. Nous contribuons également à plusieurs projet open-source sur l'IA comme BERT, un large model pré-entraîné qui capture les règles qui régissent la grammaire et la syntaxe des langages.

Si vous partagez notre vision de l'IA et de ses standards afin de construire des IA de confiance et que nous pouvons vous aider sur votre projet, contactez nous aujourd'hui. Nous serions heureux de contribuer à votre succès.

 

L'équipe: là où la passion commence

Anthony Graveline

Fondateur, CEO

Master d'Ingénierie Civile

Grégory Châtel

Associé, CSO
Docteur en Informatique

Passionné d'intelligence artificielle et de neurosciences, Anthony a 20 ans d'expérience dans le consulting et le management de projet. Il est en charge de la roadmap produit et du développement business.

Grégory est un membre actif du programme Intel Innovator. Dans ce cadre, il a présenté 3 meetups en Europe et il a écrit plusieurs articles en ligne sur les sujets de la confidentialité et la sécurité du machine learning.

 

Nous contacter

LOGO.png
  • LinkedIn Social Icon
  • Twitter

Merci !

 
blue4.png