Blog
Retour aux articlesCarnet de l’UX : quand la détection d’accident de l’iPhone se trompe
Partager
Catégories
Carnet de l’UX : quand la détection d’accident de l’iPhone se trompe
Comment une fonctionnalité à l’intention louable peut générer du danger plutôt que sauver des vies
Intéressante expérience que celle racontée par la journaliste Joanna Stern du WSJ à propos du système d’alerte de l’iPhone. Vous savez, celui qui alerte les secours automatiquement s’il détecte que vous êtes victime d’un accident.
Il fonctionne parfaitement.
Mais le problème, c’est qu’il fonctionne trop parfaitement parfaitement 🙂
Dans l’anecdote qu’elle nous rapporte, la journaliste du WSJ nous explique que l’application de secours de l’iPhone avait appelé à plusieurs reprises 911 (l’équivalent du 18 chez nous) du téléphone d’une personne en train de virevolter sur des montagnes russes dans un parc d’attraction.
La personne ne s’en étant pas rendu compte, c’est après l’arrêt de l’attraction qu’elle a pu voir qu’elle avait été à plusieurs reprises rappelée par les secours qui voulaient s’assurer que ça n’était pas une fausse alerte.
Autre anecdote, celle d’un motard ayant fait tomber son iPhone tandis qu’il était à moto (c’est pas bien de téléphoner en moto) et qui avait aussi automatiquement prévenu les secours. Le motard ayant pensé que son téléphone était perdu était allé en racheter un autre pendant que les secours essayaient vainement de le joindre pour rien.
Deux anecdotes, peut être sans importance, mais qui montrent une chose, c’est qu’on ne peut pas accepter une faille dans un système de sécurité. Et qu’on ne peut pas mettre en service une fonctionnalité censée sauver des vies sans être certain de son parfait fonctionnement.
Comment avoir ensuite confiance dans un tel service ?
Cela me rappelle le problème de premiers GPS qui commettaient pas mal d’erreurs de trajets parce qu’ils n’étaient pas connectés en temps réel à l’information routière. On avait une confiance limité en eux et l’on gardait quand même pas loin de soi une carte routière. Au cas où…
Mais c’est bien sûr bien plus embêtant lorsqu’il s’agit d’essayer de sauver des vies.
De manière plus générale, ce qui est intéressant dans ces petits exemples croustillants, c’est la leçon qu’on peut en tirer si on veut assurer le succès d’un service. Aussi utile soit-il, aussi bien fait soit-il d’un point de vue ergonomique, il risquera toujours de ne pas être accepté s’il n’est pas capable d’induire la confiance. Autrement, la place sera toujours ouverte à un concurrent plus sûr. Ou bien aussi, bien sûr, à un rejet de l’application elle même.
Et c’est un problème très récurrent dans la manière de penser des gens qui font des services numériques. Autant quand il s’agit de créer des solutions de marketing, de vente, de jeu ou autre, qui ne présentent aucun risque d’impact dangereux sur la vie réelle peut-on s’affranchir, dans une certaine mesure, d’une certaine fiabilité des résultats, autant ça n’est pas le cas lorsque des questions de sécurité sont en jeu. Et, je trouve, qu’il y a souvent une certaine légèreté à traiter ces problèmes dans des équipes peu affranchies, trop jeunes, pas assez conscientes des à côté et des externalités que peuvent engendrer leurs solutions.
Le renfort de gens ayant une expérience plus forte et une capacité à visualiser un projet dans un ensemble, un contexte plus grand, peut réellement être un apport dans de tels projets. Et améliorer leurs chances de succès, plutôt que de se confronter au récurrent problème de la confiance.
Conclusion : dans quelle proportion accepter les erreurs ?
Aurait-il fallu ne pas développer cette fonctionnalité de l’iPhone ? Avec plusieurs centaines de millions d’iPhone dans le monde, Apple a évidemment une grande responsabilité quand elle s’occupe d’essayer de sauver des vies. Nulle doute qu’elle a déjà pu en sauver des milliers, voire peut-être beaucoup plus encore, mais que des milliers d’erreurs ont aussi été générées.
La question est donc : peut-on accepter que cette application se trompe si elle permet tout de même de sauver des vies ? Dans quelle proportion ? Cela semble impossible à dire. Et c’est là, selon moi, la limite de mettre sur le marché des fonctionnalités dont la fiabilité n’atteint pas un seuil suffisant. Ce qui semble être ici le cas.
- les gens vont finir par la désactiver si elle se déclenche inopinément
- les secours vont s’en méfier et peut-être ne plus en tenir compte
La puissance d’Apple est terrifiante, car elle a le moyens d’expérimenter son app auprès de millions d’utilisateurs, plus qu’aucun État ne pourrait le faire. Et elle peut prendre le risque de se tromper plus qu’aucun État, qui est en permanence sous l’œil des médias, ne pourrait le faire. Avec une sorte d’aveuglement, nous nous confions naïvement à des sociétés de droit privé qui, de plus en plus, non content de s’immiscer dans nos vies, tentent en plus d’en prendre le contrôle en s’arrogeant le droit de sauver notre vie.
N’est-ce pas à nous, consommateurs… ou citoyens, de décider si nous voulons ou pas être sauvés par une app ? Et donc de guider leur développement par nos réactions ? Mais n’avons nous pas trop tendance à nous laisser faire et laisser les GAFAM décider pour nous ?
Là est la question.