Malgré les mises en garde de nombreux scientifiques, les
spécialistes de l'intelligence artificielle (IA) ont longtemps voulu faire des robots à l'image des êtres humains ou, plus exactement, à l'image d'une vision idéalisée d'un être humain, rationnel et doué d'une conscience sans états d'âme ni sentiments. La robotique traditionnelle, lorsqu'elle a désiré faire des robots plus autonomes, s'est naturellement tournée vers ces techniques d'IA très anthropomorphes. Mais ces chercheurs ont créé des robots qui fonctionnent uniquement dans des environnements contrôlés, des laboratoires où les objets présents, la lumière et, d'une manière générale, tous les éléments externes sont connus par le concepteur du robot. Le comportement d'un tel robot paraît, de prime abord, très naturel: à partir d'un objectif donné et d'une représentation de l'environnement qu'il possède en mémoire, il suffit qu'il «reconnaisse» les objets autour de lui, qu'il planifie la suite d'actions à entreprendre, en déduise à chaque fois les conséquences et qu'il applique enfin le meilleur plan, compte tenu de ces raisonnements.
Seulement, ce plan peut être faux, et la situation que le robot perçoit se révéler différente de ce qu'il avait prévu. Il doit alors reprendre tous les calculs précédents, en envisageant tous les cas possibles à partir de la situation dans laquelle il se trouve. Lorsque l'environnement est simple et contrôlé, et le nombre de robots très réduit (deux ou trois au maximum), il est encore poss