Marcus estime qu'il existe encore des « cas extrêmes » dans le domaine des voitures autonomes qui n'ont pas encore été résolus et qui ne devraient pas être testés sur la route 24 heures sur 24.Un article du New York Times de 2016 sur les voitures autonomes commençait ainsi : « L’ère des voitures autonomes est arrivée, et certains constructeurs automobiles ont investi des milliards de dollars dans la recherche et le développement… et ont commencé des tests dans certaines villes des États-Unis. » Sept ans ont passé, où en est la conduite autonome ?
Gary Marcus, professeur émérite de psychologie et de neurosciences à l'Université de New York, a exprimé quelques points de vue sur ce domaine. Il a déclaré qu'il y avait toujours un problème dans ce domaine, que Marcus a souligné des dizaines de fois au cours des dernières années, à savoir les cas extrêmes, les situations non routinières qui confondent souvent les algorithmes d'apprentissage automatique.
Plus la situation des voitures autonomes est complexe, plus les anomalies inattendues se produiront. Et le monde réel est complexe et chaotique, et nous ne pouvons pas énumérer tous les événements inhabituels qui peuvent survenir. Personne n’a encore trouvé comment construire une voiture autonome capable de faire face à ce fait.
Marcus a déclaré que la première fois qu'il a souligné les défis majeurs que les cas extrêmes posent à la conduite autonome, c'était dans une interview en 2016. "À cette époque, j'étais fatigué du battage médiatique et j'ai finalement abandonné ce point de vue. Maintenant, quand je relis cette transcription, je pense qu'elle est toujours applicable maintenant."
Les progrès technologiques que nous observons aujourd’hui sont largement motivés par des techniques de craquage par force brute à grande échelle, telles que le superordinateur Deep Blue et le système de jeu Atari. Le développement de ces technologies rend l’humanité extrêmement enthousiasmée. En même temps, si l’on parle de robots pour la maison ou de robots roulant dans la rue, l’enthousiasme n’est pas aussi grand.
D’une manière générale, les voitures autonomes fonctionnent bien dans des circonstances normales, par exemple lorsqu’elles conduisent en toute sécurité les jours ensoleillés. Mais s’ils sont placés dans des environnements complexes comme la neige et la pluie, la conduite sans conducteur deviendra très mauvaise. Auparavant, le journaliste et rédacteur en chef américain Steven Levy avait écrit un article sur la conduite autonome de Google. L'article mentionnait que Google avait remporté une victoire majeure en 2015, et cette victoire était que le système pouvait identifier automatiquement les feuilles.
Identifier les feuilles est trop simple pour les humains, mais ce serait une avancée majeure pour les voitures autonomes. Les humains peuvent utiliser leur bon sens pour raisonner et comprendre ce que pourrait être cette chose et comment elle est arrivée là, mais un système de conduite autonome se souvient simplement de quelque chose et manque de raisonnement, et c'est la limitation à laquelle les voitures autonomes sont confrontées...
Les gens attendaient avec impatience une technologie de conduite autonome plus mature. Il y a quelques jours à peine, la California Public Utilities Commission a autorisé les sociétés de voitures autonomes Cruise et Waymo à fonctionner 24h/24 et 7j/7 à San Francisco. Cette décision donne aux deux sociétés une plus grande latitude pour tester leurs voitures. Après l'annonce de la nouvelle, de nombreuses personnes ont déclaré que l'ère des voitures autonomes était arrivée, même si c'est plus tard que prévu.
En fait, nous n’avons pas encore de voitures véritablement autonomes, et comme Cade Metz, un journaliste américain bien connu, l’expliquait il y a quelques mois dans mon podcast « Humans vs. Machines », chaque véhicule autonome sur la voie publique aura soit un conducteur de sécurité humain, soit un humain supervisant à distance pour aider le véhicule à se sortir du pétrin.
Aujourd’hui, de nouveaux cas extrêmes apparaissent dans le domaine de la conduite autonome, comme par exemple une Tesla qui s’écrase sur un avion en stationnement.
Marcus a déclaré que quelle que soit la quantité de données sur lesquelles ces systèmes sont formés, de nouvelles situations surgiront toujours.
Tout récemment, dix autres voitures autonomes ont perdu le contact avec le centre de contrôle de mission. Sans la supervision du centre de contrôle, des voitures autonomes se sont perdues, arrêtées en pleine rue, et bien d’autres accidents :
Le domaine de la conduite autonome est en constante évolution, c'est pourquoi de nombreux chercheurs, dont Marcus, ne comprennent pas l'approche de la California Public Utilities Commission.
Il serait insensé de tester la conduite autonome n’importe où et à tout moment sans une solution rigoureuse et soigneusement examinée pour répondre aux cas extrêmes. Cela s’applique non seulement aux voitures autonomes, mais également à d’autres domaines basés sur l’apprentissage automatique.
Les cas Edge sont partout, et quiconque pense que tout est facile à résoudre se fait des illusions.
Nous devons renforcer notre gestion, et si nous ne le faisons pas, nous pourrions assister à des accidents majeurs avec des voitures sans conducteur, des médecins automatisés, des assistants virtuels universels, des robots domestiques et bien plus encore dans les années à venir.
À la fin de l'article, Marcus a déclaré avoir complété cet article sur un avion équipé d'un pilote automatique. Pendant le vol de 9 heures, le pilote automatique fonctionnait tout le temps, et des humains étaient également impliqués pendant cette période, ce qui constituait un humain dans la boucle. En fin de compte, Marcus ne pense pas qu’il y aura d’avions autonomes, et il ne pense pas qu’aucune voiture quasi-autonome n’ait encore été approuvée.