Gné ? Comme promis, et régulièrement, nous faisons un petit tour d’horizon des avancées de l’IA, l’occasion de faire un petit tour de table aussi, avec votre opinion sur la question.
L’autre jour, j’ai visionné une vidéo très intéressante : vous savez ces taxis autonomes, sans chauffeur… en théorie le véhicule vous récupère à un point A pour vous emmener à un point B.
En théorie, tout devrait se passer sans encombre, le trajet est connu, les signalisations sont analysées en temps réel, le radar analyse l’environnement, les autres voitures, les piétons, les motos et toussa.
Et si cette voiture était vraiment autonome, et donc vraiment sans aucune intervention humaine, on imagine que toutes les situations possibles ont été imaginées, modélisées, solutionnées ?
Et justement, par rapport à ma video, une situation inattendue s’est produite : la circulation a été coupée, un policier a mis sa moto en travers de la route et a intimé à notre taxi de s’arrêter… taxi sans chauffeur donc 🤣
Et malheureusement la vidéo a coupé pile à ce moment là mais j’aurais payé cher pour avoir 10 secondes de plus : qu’a fait le taxi ?
Cette situation est-elle recensée dans sa base de données ? A-t-il “compris” que le policier lui demande se s’arrêter ? Comment pourrait-il faire la différence entre un policier et un pirate de la route ? (car jacking, …) Et si c’était un ouvrier de chantier, avec son panneau vert et rouge ?
L’IA, en parcourant ses tera-octets de données, pourrait en déduire qu’il faut effectivement s’arrêter… ou pas, aïe.
Un conducteur humain lui n’aura pas besoin de tera-octets de données à traiter, instinctivement, intuitivement, intelligemment, même s’il a obtenu son permis de conduire hier, il sait qu’il doit s’arrêter… et il s’arrêtera.
Et ce sont ces 3 mots qui manqueront toujours à une IA, quelle qu’elle soit : instinctivement, intuitivement, intelligemment. La pensée, le raisonnement… face à une situation imprévue, inhabituelle, inattendue, l’humain peut raisonner et réfléchir, puis prendre une décision en une fraction de seconde. Et dans la plupart des cas ça marchera.
Mais une IA ? Aucune conscience, aucun raisonnement, aucune humanité. Que des données et des modèles mathématiques à traiter, et portant sur des situations similaires qui se sont déjà produites dans le passé, avec le bon comportement à adopter en conséquence.
Bref, vous pourrez m’annoncer toutes les évolutions possibles et imaginables que vous voulez, je ne serai jamais convaincu qu’une IA sera intelligente un jour. Réagir correctement face à une situation inattendue, imprévue voire inédite.
Je ne dis pas non plus que l’humain ne fait jamais d’erreur. Il en fait. Mais le problème n’est pas du tout là, si vous avez bien suivi ce qui a été dit supra.
La seule possibilité pour arriver à une forme d’intelligence robotique, ce serait justement de bidouiller un espèce de… Robocop ? Un cyborg quoi, avec un cerveau humain. Mais ceci pose bien entendu de nouveaux problèmes en termes de bio éthique et tout le tralala.
Bref, nous n’y sommes pas encore. Mais ce qui arrivera, et ce n’est guère rassurant, c’est que beaucoup de chercheurs seront frustrés par ce plafond de verre que je viens de décrire
… et forcément, l’un de ces chercheurs fous franchira un jour le Rubicon, et créera réellement son Frankenstein dans son laboratoire. Et ce n’est franchement pas rassurant du tout !