Implémenter les lois de la robotique
Enfin un robot est nécessairement un système multitâche : à un instant donné, il se peut qu'il doive exécuter plusieurs ordres, tout en étant mû par les potentiel des quatre lois. L'ordonnancement des tâches dans un robot asimovien s'apparente à celui qui existe dans un système informatique temps réel, à ceci prêt que l'ordonnanceur lui même doit vérifier que la séquence de tâches choisie ne comporte pas de risque pour les être humains ou l'humanité. Exemple : si je donne au robot les deux ordres suivant : 1) préparer dans un verre une solution d'arsenic concentrée, et 2) donner le verre à un être humain, chaque action individuelle est permise par les lois de la robotique, mais leur conjonction viole la première loi ! Notons qu'un humain malicieux pourrait utiliser deux robots qui exécutent chacun une partie de l'action : que se passe-t'il alors lorsque le second robot s'apercevra que son action a tué un humain ?
Dans les romans d'asimov, si malgré tout le robot s'aperçoit que son action a violé l'une des lois, singulièrement la première, il "devient fou" et tombe en panne. Ce n'est pas très réaliste ! A priori, un robot n'a pas "d'état d'âme" relatif à ses actions passées. Ou alors il faudrait rajouter une autre loi : si un robot s'aperçoit que son action passée a violé l'une des deux