La reconnaissance faciale, c'est comme les antibiotiques... pas toujours automatique - Crédit photo : Depositphotos @peshkov
Nous avons tous l'exemple d'une borne Parafe qui ne fonctionne pas ou mal, et d'un voyageur coincé entre deux portes en verre.
Dernièrement, en rentrant d'un voyage de presse, une consœur me contait l'histoire d'un de ses collègues ayant passé plus de 2h30 au contrôle aux frontières, en raison d'un Parafe récalcitrant.
Cette histoire n'est pas pour plaindre le pauvre journaliste qui revient d'un séjour tout frais payé, mais plutôt pour montrer les limites de la technologie tant vantée et espérée par les entreprises, pour se délester de l'expertise humaine bien trop coûteuse.
En effet, Parafe et les autres dérivés technologiques sont apparus tout simplement pour supprimer des guérites dans les aéroports, mais surtout des employés et réduire les frictions humaines.
Sauf que cette solution, qui sera déployée dans l'ensemble des aéroports américains d'ici quatre ans, n'est pas vraiment... aboutie.
De nombreuses études et expériences montrent les limites d'une reconnaissance faciale utilisée en Chine pour confondre des voleurs ou des "criminels économiques".
Devons-nous confier notre sécurité à des ordinateurs et caméras, aussi intelligentes soient-elles ? Alors que tout nous démontre que la technologie n'est pas encore mature, je vous laisse juger.
Dernièrement, en rentrant d'un voyage de presse, une consœur me contait l'histoire d'un de ses collègues ayant passé plus de 2h30 au contrôle aux frontières, en raison d'un Parafe récalcitrant.
Cette histoire n'est pas pour plaindre le pauvre journaliste qui revient d'un séjour tout frais payé, mais plutôt pour montrer les limites de la technologie tant vantée et espérée par les entreprises, pour se délester de l'expertise humaine bien trop coûteuse.
En effet, Parafe et les autres dérivés technologiques sont apparus tout simplement pour supprimer des guérites dans les aéroports, mais surtout des employés et réduire les frictions humaines.
Sauf que cette solution, qui sera déployée dans l'ensemble des aéroports américains d'ici quatre ans, n'est pas vraiment... aboutie.
De nombreuses études et expériences montrent les limites d'une reconnaissance faciale utilisée en Chine pour confondre des voleurs ou des "criminels économiques".
Devons-nous confier notre sécurité à des ordinateurs et caméras, aussi intelligentes soient-elles ? Alors que tout nous démontre que la technologie n'est pas encore mature, je vous laisse juger.
Des téléphones déverrouillés avec une simple photographie
Autres articles
-
L'aéroport Paris-Beauvais relié directement à La Villette
-
Convious AI : le chatbot qui simplifie les réservations sur whatsapp !
-
Claud·IA : le chatbot de RIU qui veut réinventer l'expérience client
-
Meilleurs aéroports du monde, quid des plateformes françaises
-
Cediv : premier réseau à intégrer l’IA !
Tout d'abord, en début d'année, le magazine de défense des consommateurs, "Que Choisir" révélait une étude faite au sein de la rédaction.
Ainsi, près de la moitié des smartphones testés ont été dupés par une simple photo imprimée sur une feuille A4 ou par un cliché affiché sur un autre appareil.
En somme, nul besoin de bénéficier de compétences poussées en hacking, quand un simple smartphone suffit pour pirater la vie d'une autre personne.
Lorsqu'un téléphone se déverrouille, ce sont aussi les applications de la banque, Facebook, Paypal, la boîte mail, etc... qui deviennent potentiellement accessibles.
Cette démonstration démontre bien les limites de la technologie, mais les terminaux numériques tenant dans la poche ne sont pas les seuls à ne pas être au point.
Certes, Parafe et les autres outils utilisés dans les aéroports sont plus pointus que ceux de nos smartphones, mais le Massachusetts Institute of Technology (MIT) a publié un article pointant les manquements de l'IA.
A la fin du mois de janvier, la célèbre école dévoilait que "des recherches ont montré à maintes reprises que ces systèmes traitent certains groupes démographiques de manière beaucoup plus inexacte que d’autres."
La recherche menée par Joy Buolamwini, chercheuse pour le MIT Media Lab, a révélé que les systèmes de classification par sexe vendus par IBM "présentaient un taux d'erreur plus élevé de 34,4 points de pourcentage pour les femmes à la peau plus sombre que les femmes plus claires."
Imaginez un peu que des caméras de sécurité identifiant seulement, dans 65% des cas, certaines catégories de voyageurs, soient déployées dans l'ensemble de notre société...
Ainsi, près de la moitié des smartphones testés ont été dupés par une simple photo imprimée sur une feuille A4 ou par un cliché affiché sur un autre appareil.
En somme, nul besoin de bénéficier de compétences poussées en hacking, quand un simple smartphone suffit pour pirater la vie d'une autre personne.
Lorsqu'un téléphone se déverrouille, ce sont aussi les applications de la banque, Facebook, Paypal, la boîte mail, etc... qui deviennent potentiellement accessibles.
Cette démonstration démontre bien les limites de la technologie, mais les terminaux numériques tenant dans la poche ne sont pas les seuls à ne pas être au point.
Certes, Parafe et les autres outils utilisés dans les aéroports sont plus pointus que ceux de nos smartphones, mais le Massachusetts Institute of Technology (MIT) a publié un article pointant les manquements de l'IA.
A la fin du mois de janvier, la célèbre école dévoilait que "des recherches ont montré à maintes reprises que ces systèmes traitent certains groupes démographiques de manière beaucoup plus inexacte que d’autres."
La recherche menée par Joy Buolamwini, chercheuse pour le MIT Media Lab, a révélé que les systèmes de classification par sexe vendus par IBM "présentaient un taux d'erreur plus élevé de 34,4 points de pourcentage pour les femmes à la peau plus sombre que les femmes plus claires."
Imaginez un peu que des caméras de sécurité identifiant seulement, dans 65% des cas, certaines catégories de voyageurs, soient déployées dans l'ensemble de notre société...
Une entreprise française incapable de reconnaître un seul visage
Plus récemment, une entreprise a effectué un test à New York, au-dessus du pont Robert F. Kennedy.
Son objectif était de scruter les visages des conducteurs passant sur l'infrastructure et de les identifier, pour les recouper avec les bases de données du gouvernement, afin de trouver des contrevenants à la loi.
Sur les 900 000 véhicules empruntant quotidiennement le pont reliant Manhattan, le Queens et le Bronx, le logiciel n'a reconnu aucun visage durant toute sa période de test.
Malgré l'absence de résultats, le tollé des chercheurs et de l'opinion publique contre les usages de cette technologie, les tests ont repris de plus belle.
Le numérique, l'IA et la blockchain ont des atouts indéniables pour les acteurs du tourisme, mais aussi dans notre vie de tous les jours, mais encore faut-il mettre des limites à leurs usages et s'assurer de leur fiabilité.
Aucun pays n'est épargné par des dysfonctionnements. Au Royaume-Uni, lors de la finale de Ligue des Champions en 2017, un logiciel avait identifié 2 470 potentiels suspects sur 50 000 spectateurs, sauf que 2 297 d’entre eux se sont révélés être des erreurs.
Avec une réussite équivalente à 7%, n'importe quel douanier aurait dû s'inscrire à Pôle Emploi.
La technologie c'est bien, mais quand elle fonctionne à 100%, c'est mieux.
Son objectif était de scruter les visages des conducteurs passant sur l'infrastructure et de les identifier, pour les recouper avec les bases de données du gouvernement, afin de trouver des contrevenants à la loi.
Sur les 900 000 véhicules empruntant quotidiennement le pont reliant Manhattan, le Queens et le Bronx, le logiciel n'a reconnu aucun visage durant toute sa période de test.
Malgré l'absence de résultats, le tollé des chercheurs et de l'opinion publique contre les usages de cette technologie, les tests ont repris de plus belle.
Le numérique, l'IA et la blockchain ont des atouts indéniables pour les acteurs du tourisme, mais aussi dans notre vie de tous les jours, mais encore faut-il mettre des limites à leurs usages et s'assurer de leur fiabilité.
Aucun pays n'est épargné par des dysfonctionnements. Au Royaume-Uni, lors de la finale de Ligue des Champions en 2017, un logiciel avait identifié 2 470 potentiels suspects sur 50 000 spectateurs, sauf que 2 297 d’entre eux se sont révélés être des erreurs.
Avec une réussite équivalente à 7%, n'importe quel douanier aurait dû s'inscrire à Pôle Emploi.
La technologie c'est bien, mais quand elle fonctionne à 100%, c'est mieux.